ทำไม GPT เขียนดีกว่าพนักงานบางคน!! (นี่แค่จุดเริ่มต้นเท่านั้น)

ทำไม GPT เขียนดีกว่าพนักงานบางคน!! (นี่แค่จุดเริ่มต้นเท่านั้น)

May 08, 20252 min read

บทความอ้างอิงจาก หลักสูตร "Generative AI for Beginners" ของ  Carlos de Castelluccio

ผู้เชี่ยวชาญ AI จาก Microsoft


Timeline 4 ยุคของ AI : จาก "หุ่นยนต์ท่องจำ" สู่ "นักเขียนมือรางวัล"

1  ยุค Rule-based (1950-1960): AI แบบตำราเรียน

  • กลไกที่มนุษย์ป้อน : ตอบตามกฎ "ถ้า...แล้ว..."  

  • ตัวอย่าง:

    • คุณ: "อยากทราบรายละเอียดสินค้า"

    • ระบบ: "กรุณากด 1 เพื่อฟังข้อมูล"  (หากไม่กดเลข ไม่ตอบ)

  • ❌ จุดอ่อน: ถามนอกคำสั่ง ..กริบ !!

2  ยุค Machine Learning (1990): AI เริ่มเรียนเก่ง

  • พัฒนาการ: ใช้สถิติเดาความสัมพันธ์ระหว่างคำ

  • ตัวอย่าง: ระบบแปลภาษาอัตโนมัติรุ่นแรก แปล "Good morning" เป็น "อรุณสวัสดิ์" ได้ แต่พลิกประโยคซับซ้อนไม่ได้

3  ยุค Neural Networks (2000s): AI มีเซลล์ประสาทเทียม

  • จุดเปลี่ยน:

    • 📱 Siri และ Google Assistant กำเนิด

    • 🌐 Google Translate เริ่มแปลทั้งประโยคได้

  • ตัวอย่างไทย: แปล "สวัสดีครับ" เป็น "Hello" แทน "Sawatdee krub"

4 ยุค Transformer (2017-ปัจจุบัน): กำเนิด "GPT" นักเขียนอัจฉริยะ

  • เทคโนโลยี: กลไก Attention (สมองกลที่โฟกัสได้หลายจุดพร้อมกัน)

  • ตัวอย่าง:

    • ChatGPT เขียนเรียงความได้ใน 1 นาที

      DALL-E สร้างภาพ "พญานาค กับ หุ่นยนต์"


รู้จัก GPT

GPT ย่อมาจาก: Generative (สร้างเนื้อหาใหม่) + Pre-trained (ฝึกมาก่อน) + Transformer (โครงสร้างสมองกล)

GPT ทำงานยังไง?

  1. แปลงคำเป็นตัวเลข (Tokenization)

  • "ครูชอบสอนAI" → ["ครู", "ชอบ", "สอน", "AI"] → [1024, 5678, 8910, 9999]

  1. เดาคำถัดไป (Next Token Prediction)

  • "พระนเรศวร______" → "ทรงประกาศอิสรภาพ"

  1. เพิ่มความสุ่มสร้างสรรค์ (Temperature)

  • 0 = ตอบซ้ำเดิมเป๊ะ

  • 1 = สร้างเมนูอาหารจากวัตถุดิบแปลกๆ


กลไกการทำงานของTransformer และ Tokenization

1 Tokenization คืออะไร

  • คือการแยกประโยคหรือข้อความออกเป็น “โทเค็น” (คำ หรือส่วนของคำ)

  • ตัวอย่างภาษาไทยที่ชัดเจน:

    • ประโยค: “วันนี้อากาศดีมาก”

    • อาจถูกแยกเป็น: [“วัน”, “นี้”, “อากาศ”, “ดี”, “มาก”] หรือ [“วันนี้”, “อากาศ”, “ดี”, “มาก”] แล้วแต่ระบบ

2 การทำนายโทเค็นถัดไป (Next Token Prediction)

  • โมเดลนำบริบทที่มีอยู่มาทำนายคำถัดไป

  • ตัวอย่างชัดเจนภาษาไทย:

  • เริ่ม: “พระบาทสมเด็จพระนารายณ์มหาราช”

  • ทำนายใหม่: “ทรง” → “พระบาทสมเด็จพระนารายณ์มหาราชทรง”

  • ทำนายใหม่: “มี” → “พระบาทสมเด็จพระนารายณ์มหาราชทรงมี”

  • ดำเนินต่อไปเรื่อย ๆ

3 ความคิดสร้างสรรค์มาจากไหน?

  • โมเดลไม่ได้เลือกโทเค็นที่มีความน่าจะเป็นสูงสุดเสมอไป

    ใช้กลไกสุ่ม (Temperature) ทำให้ได้คำตอบที่หลากหลายและสร้างสรรค์

  • ตัวอย่างชัดเจน:

    • ขอ “บทกวีทะเล” 10 ครั้ง จะได้บทกวี 10 แบบ ไม่ซ้ำกันเลย


ประเภทของPrompt และตัวอย่างที่ชัดเจน

  • Instruction Prompt (คำสั่ง)

    • “เขียนแผนการสอนเรื่องกฎของนิวตัน สำหรับนักเรียน ม.3” AI จะสร้างแผนการสอนละเอียดครบถ้วน

  • Question Prompt (คำถาม)

    • “ทำไมสมเด็จพระนเรศวรมหาราชจึงประกาศอิสรภาพ?” AI จะอธิบายประวัติศาสตร์ได้ชัดเจน

  • Completion Prompt (เติมข้อความที่ไม่สมบูรณ์)

    • “สัตว์ที่พบในป่าชายเลน ได้แก่…” AI จะเติมข้อความ  เช่น ปูก้ามดาบ ปลาตีน นกยางเปีย ฯลฯ


อนาคตอันใกล้ เมื่อAI กลายเป็น "ครูคนที่สอง"

AI03

ข้อควรรู้ก่อนใช้ Generative AI

1 อย่าเชื่อทุกคำตอบ:

  • AI อาจ "เพ้อ" (Hallucination) เช่น บอกว่า "พระนเรศวรทรงใช้ ทวิตเตอร์ สื่อสาร"

2 ปรับระดับความสร้างสรรค์:

  • ใช้ Temperature คุมการสุ่ม เหมือนปรับไฟเตาแก๊ส

  • ต้องการความแม่นยำสูง: ใช้ Temperature=0.0 เช่น คำนวนสูตรเคมี

  • สร้างไอเดียแปลกใหม่: ใช้ Temperature=0.9 เช่น ตั้งชื่อแบรนด์

  • เขียนบทสนทนาตลก: ใช้ Temperature=0.75 เช่น สคริปต์ซีรีส์คอมเมดี้

  • แปลภาษา: ใช้ Temperature=0.3 เพื่อป้องกันการเพี้ยนความหมาย

  • แต่งเพลง: ใช้ Temperature=1.0 ให้ได้คำคล้องจองไม่ซ้ำใคร

3 ตรวจสอบ bias:

  • AI อาจมีอคติจากข้อมูลฝึก เช่น เชื่อว่า "ผู้จัดการต้องเป็นผู้ชาย"

 


 

#อ่านพอรู้ที่มา  … บทความต่อไป  @underdog จะย่อยหลักการ prompt ให้เข้าใจแบบง่ายที่สุด

(เครดิต: หลักสูตร "Generative AI for Beginners" โดย Microsoft, งานวิจัย "Attention is All You Need" (2017))


รุ่งพร มีศิลป์ - บทความ

เจติยา เฉยรอด - ภาพประกอบ

Back to Blog