Generative AI
Touchapon Kraisingkorn
2
นาที อ่าน
June 6, 2024

LLM ปี 2024: เล็กลง เร็วขึ้น ฉลาดขึ้น ทำงานร่วมกันมากขึ้น

ในขณะที่เรากำลังก้าวเข้าสู่ปี 2024 การพัฒนาของ Large Language Models (LLMs) กำลังเข้ามาเปลี่ยนแปลง AI อย่างสิ้นเชิง ด้วยความก้าวหน้าที่มุ่งเน้นในการทำให้โมเดลเหล่านี้มีขนาดเล็กลง เร็วขึ้น และฉลาดขึ้น ควบคู่ไปกับ workflow เชิงนวัตกรรมเพื่อเพิ่มความแม่นยำ 

บทความนี้จะพามาสำรวจสิ่งที่น่าคาดหวังสำหรับ LLMs ในปี 2024 โดยมุ่งเน้นไปที่ประสิทธิภาพ ของ workflow agancy การรองรับขนาดบริบทที่ใหญ่ขึ้น และบทบาทของผู้เชี่ยวชาญที่ออกแบบและปรับแต่งคำสั่ง (prompt engineer)

LLMs ที่เล็กลง รวดเร็วและฉลาดขึ้น

LLMs โมเดลถูกพัฒนาให้มีประสิทธิภาพและกะทัดรัดกำลังได้รับความสนใจเพิ่มขึ้นเรื่อยๆ โดยบริษัท AI ชั้นนำ เช่น OpenAI, Anthropic, Meta และ Microsoft ถือเป็นบริษัทที่อยู่แถวหน้าด้วยโมเดลอย่าง GPT-3.5-Turbo, Haiku, LLaMA 3 8B, และ Phi-3.

โมเดลแนวหน้าของวงการ AI: GPT-3.5-Turbo, Haiku, LLaMA 3 8B, และ Phi-3

งานวิจัยกล่าวว่าโมเดลภาษาขนาดเล็กเหล่านี้ มีความสามารถเทียบเท่าหรืออาจจะเหนือกว่าโมเดลขนาดที่มีขนาดใหญ่กว่าและราคาแพงกว่าอย่าง GPT-4ในการทดสอบประสิทธิภาพต่างๆ ยกตัวอย่างเช่น โมเดล Phi-3-mini ขนาดกะทัดรัดจาก Microsoft ซึ่งมีพารามิเตอร์เพียง 3.8 ล้านตัว แต่สามารถแข่งขันกับโมเดลที่มีพารามิเตอร์มากกว่าอย่าง Mixtral 8x7B และ GPT-3.5 ในทำนองเดียวกัน โมเดล LLaMA 3 8B ขนาด 8 พันล้านพารามิเตอร์จาก Meta พบว่ามีความสามารถเทียบเคียงหรือแม้กระทั่งดีกว่า GPT-3.5 (Microsoft, 2024)

ความก้าวหน้าในประสิทธิภาพของโมเดลเหล่านี้จะช่วยลดต้นทุนลงไปอีก ทำให้ LLMs มีประสิทธิภาพมากขึ้นในทางปฏิบัติ รวมถึงมีให้ใช้งานอย่างแพร่หลายสำหรับแอปพลิเคชัน ตั้งแต่แชทบอทบริการลูกค้าไปจนถึงการวิเคราะห์ข้อมูลขั้นสูง ถือเป็นพัฒนาการที่สำคัญของวงการ AI ที่ทำให้คนทั่วไปสามารถเข้าถึงนวัตกรรมเหล่านี้ได้อย่างทั่วถึงมากขึ้น ธุรกิจและสตาร์ทอัพจะสามารถใช้ประโยชน์จาก LLMs ที่คุ้มค่าและประหยัดพลังงานเหล่านี้เพื่อปลดล็อกกรณีการใช้งานใหม่ๆ และขับเคลื่อนนวัตกรรม

Agentic Workflow

หนึ่งในความก้าวหน้าที่ปฏิวัติวงการที่สุดใน AI คือการเปลี่ยนผ่านไปสู่ workflow agency Andrew Ng ผู้เชี่ยวชาญด้าน AI ชื่อดัง ได้เน้นย้ำความสำคัญของเวิร์กโฟลว์เหล่านี้ในการขับเคลื่อนความก้าวหน้าอย่างมาก เขาระบุการออกแบบหลัก 4 ประการสำหรับ AI workflow agency:

AI กำลังวิเคราะห์แนวทางการโต้ตอบกับมนุษย์
ความสามารถในการวิเคราะห์พฤติกรรมการตอบของ AI

Reflection: LLMs สามารถเพิ่มประสิทธิผลได้โดยการสะท้อนพฤติกรรมของผู้ใช้ ตัวอย่างเช่น LLM ที่ใช้ในแอปพลิเคชันบริการลูกค้าสามารถวิเคราะห์การโต้ตอบในอดีตเพื่อระบุรูปแบบคำถามของลูกค้าและนำมาปรับปรุงการการโต้ตอบในครั้งต่อๆไป ความสามารถใน reflec ตนเองนี้ช่วยให้โมเดลเรียนรู้จากข้อผิดพลาดและปรับตัวให้เข้ากับสถานการณ์ใหม่ๆ ได้ ซึ่งช่วยเพิ่มความถูกต้องและความน่าเชื่อถือ

การใช้เครื่องมือ: LLMs สามารถทำหน้าที่เป็นเอเจนต์โดยใช้เครื่องมือภายนอกสำหรับงานต่างๆ เช่น การค้นหา การเรียกใช้โค้ด และการจัดการข้อมูล ยกตัวอย่าง LLM ที่ผสานรวมกับเครื่องมือวิเคราะห์ทางการเงินสามารถดึงข้อมูลตลาดแบบเรียลไทม์ ทำการคำนวณที่ซับซ้อน และสร้างคำแนะนำการลงทุนได้โดยอัตโนมัติ ความสามารถในการใช้ประโยชน์จากเครื่องมืออื่นๆ นี้ขยายการทำงานของ LLMs ให้มีความสามารถมากกว่าแค่การสร้างข้อความ ทำให้ LLMs กลายเป็น Agent AI ที่ใช้งานได้หลากหลายและสามารถจัดการกับงานที่แตกต่างกันได้

การวางแผน: LLMs สามารถตัดสินใจลำดับขั้นตอนในการดำเนินการสำหรับงานที่ซับซ้อนได้อย่างอิสระ LLM ที่ใช้ในซอฟต์แวร์บริหารโครงการ มีความสามารถในการแบ่งโครงการออกเป็นงานย่อยๆ รวมถึงกำหนดเวลา และติดตามความคืบหน้า พร้อมทั้งปรับแผนตามการอัปเดตแบบเรียลไทม์ ความสามารถในการวางแผนนี้ทำให้ LLMs สามารถจัดการเวิร์กโฟลว์ที่ซับซ้อนได้อย่างมีประสิทธิภาพ ลดความจำเป็นในการแทรกแซงของมนุษย์

Multi Agent Collaboration ของ AI และมนุษย์
การทำงานร่วมกันในหลากหลายหน้าที่ของ Agent AI และมนุษย์

ความร่วมมือหลายเอเจนต์: การสั่งการ LLM ให้ทำงานที่แตกต่างกันสำหรับส่วนต่างๆ ของงานที่ซับซ้อนเสมือนเอเจนต์ที่ทำงานร่วมกัน ตัวอย่างเช่น ในแอปพลิเคชันการวินิจฉัยทางการแพทย์ เอเจนต์ LLM ตัวหนึ่งอาจมุ่งเน้นไปที่การวิเคราะห์ประวัติผู้ป่วย อีกตัวหนึ่งตีความผลแล็บ และอีกตัวแนะนำตัวเลือกการรักษา โดยการทำงานร่วมกัน เอเจนต์เหล่านี้สามารถให้การวินิจฉัยที่ครอบคลุม ช่วยเพิ่มความถูกต้องและความน่าเชื่อถือของระบบโดยรวม

Andrew Ng ยืนยันว่าเวิร์กโฟลว์เอเจนซี่เหล่านี้จะขับเคลื่อนความก้าวหน้าของ AI อย่างมาก อาจเกินกว่าความก้าวหน้าของโมเดลพื้นฐานรุ่นต่อไป กระบวนการแก้ปัญหาแบบมีโครงสร้างและมีปฏิสัมพันธ์นี้จะช่วยปรับปรุงความถูกต้องและลดพลังงานในการใช้งาน LLM

การรองรับสเกลการทำงานที่ใหญ่ขึ้น

ความก้าวหน้าในการรองรับการทำงานที่กว้างขวางมากขึ้นกำลังจะปฏิวัติความสามารถของ LLMs โมเดลอย่าง Google's Gemini 1.5 ซึ่งตอนนี้รองรับขนาดบริบทได้ถึง 1 ล้านโทเค็น มุ่งสู่ความจุที่เกือบไม่จำกัด ขนาดบริบทที่เพิ่มขึ้นนี้จะช่วยให้สามารถใช้งานได้หลากหลายขึ้น เช่น การวิเคราะห์วิดีโอและการประมวลผลข้อมูลแบบแบตช์

ยกตัวอย่างเช่น ในการวิเคราะห์วิดีโอ LLM ที่มีขนาดบริบทใหญ่ขึ้นสามารถวิเคราะห์สตรีมวิดีโอทั้งหมดแทนที่จะเป็นเพียงเฟรมแต่ละเฟรม วิธีการแบบองค์รวมนี้ช่วยให้โมเดลเข้าใจบริบท ตรวจจับความผิดปกติ และสร้างข้อมูลเชิงลึกได้แม่นยำยิ่งขึ้น ในทำนองเดียวกัน ในการประมวลผลข้อมูลแบบแบตช์ LLM สามารถจัดการชุดข้อมูลขนาดใหญ่ในการประมวลผลครั้งเดียวได้ ทำให้สามารถทำการวิเคราะห์ที่ซับซ้อนและสร้างรายงานที่ครอบคลุมได้โดยไม่ต้องมีการวนซ้ำหลายครั้ง

อย่างไรก็ตาม สิ่งสำคัญที่ควรทราบคือ ความก้าวหน้าเหล่านี้อาจไม่เหมาะสำหรับกรณีการใช้งาน Q&A Retrieval-Augmented Generation (RAG) เนื่องจากผลกระทบด้านต้นทุนและเวลาตอบสนอง การคำนวณที่เพิ่มขึ้นของโมเดลในการจัดการขนาดบริบทที่ใหญ่ขึ้น นำไปสู่ต้นทุนการดำเนินงานที่สูงขึ้นและเวลาตอบสนองที่ช้าลง ทำให้ไม่เหมาะสมในทางปฏิบัติสำหรับแอปพลิเคชันที่ต้องการปฏิสัมพันธ์แบบเรียลไทม์

Prompt Engineer กลายเป็น Agents Architect

ด้วยการเพิ่มขึ้นของ workflow agency บทบาทของ prompt engineer หรือผู้เชี่ยวชาญที่ออกแบบและปรับแต่งคำสั่ง กำลังเปลี่ยนแปลงไป ตามที่ Andrew Ng กล่าวไว้ ในอนาคตวิศวกรออกแบบคำสั่งจะเปลี่ยนไปเป็น "สถาปนิกเอเจนต์" บทบาทใหม่นี้มาจากการที่กลุ่ม agent สามารถทำงานที่ซับซ้อนได้สำเร็จและมีประสิทธิภาพ แทนที่จะเป็นเพียงการสร้าง prompt แต่ละอัน สถาปนิกเอเจนต์จะมุ่งเน้นไปที่การประสานงานเอเจนต์หลายตัวให้ทำงานร่วมกันและบรรลุผลลัพธ์ที่ดีที่สุด

ตัวอย่างเช่น ในแพลตฟอร์มสร้างคอนเทนต์ Agent Architect อาจออกแบบเวิร์กโฟลว์โดยให้เอเจนต์ LLM ตัวหนึ่งสร้างร่างเนื้อหาเบื้องต้น อีกตัวหนึ่งตรวจทานและแก้ไขเนื้อหา และอีกตัวหนึ่งปรับให้เหมาะสมสำหรับ SEO โดยการประสานงานเอเจนต์เหล่านี้ Agent Architect จะทำให้มั่นใจว่าผลลัพธ์สุดท้ายมีคุณภาพสูงและตรงตามข้อกำหนดทั้งหมด การเปลี่ยนแปลงนี้เน้นย้ำถึงความจำเป็นที่ผู้เชี่ยวชาญด้าน AI จะต้องปรับตัวและสร้างสรรค์นวัตกรรมอย่างต่อเนื่องเพื่อตอบสนองต่อเทคโนโลยีและระเบียบวิธีใหม่ๆ ที่เกิดขึ้น

บทสรุป

เมื่อเรามองไปข้างหน้าในปี 2024 ความคาดหวังสำหรับ LLMs นั้นน่าตื่นเต้นและเปลี่ยนแปลงไปอย่างมาก ตั้งแต่การทำโมเดลให้มีขนาดเล็กลง เร็วขึ้น และฉลาดขึ้น ไปจนถึงการใช้ประโยชน์จาก workflow agency และสเกลการทำงานที่กว้างขึ้น LLMs กำลังจะปฏิวัติอุตสาหกรรมต่างๆ บทบาทที่วิวัฒนาการของ Prompt Engineer ไปสู่ Agent Architect ยิ่งเน้นย้ำถึงความก้าวหน้าในการเพิ่มความแม่นยำ ประสิทธิภาพ และการประยุกต์ใช้ LLMs เปิดทางสู่ยุคของนวัตกรรมที่ขับเคลื่อนด้วย AI

ทาง Amity Solutions ก็มีบริการ generative AI ที่ช่วยเพิ่มประสิทธิภาพการดำเนินงานเช่นกัน ปรึกษาผู้เชี่ยวชาญของเราได้ที่นี่