เมื่อเร็วๆ นี้ Apple ได้เปิดตัว LazyLLM ซึ่งเป็นวิธีการใหม่ที่ออกแบบมาเพื่อเพิ่มประสิทธิภาพของโมเดลภาษาขนาดใหญ่ (LLMs) ในขั้นตอนการอนุมาน โดยเฉพาะอย่างยิ่งเมื่อต้องจัดการกับบริบทที่ลากยาว
คุณสมบัตินี้ช่วยให้โมเดลโฟกัสเฉพาะโทเค็นที่เกี่ยวข้องที่สุดสำหรับการทำนายแต่ละครั้ง คล้ายกับที่นักเรียนอาจมุ่งเน้นเฉพาะแนวคิดสำคัญสำหรับการสอบ แทนที่จะทบทวนทุกรายละเอียด วิธีการแบบเจาะจงนี้ช่วยเพิ่มประสิทธิภาพและลดการคำนวณที่ไม่จำเป็น
การทดลองที่ดำเนินการโดยผู้พัฒนาแสดงให้เห็นว่า LazyLLM ช่วยลดเวลาในการสร้างโทเค็นแรก (TTFT) อย่างมีนัยสำคัญ โดยยังคงรักษาความแม่นยำของโมเดลไว้ได้ ตัวอย่างเช่น การสร้างคำตอบที่ปกติใช้เวลา 10 วินาที อาจลดลงเหลือประมาณ 4 วินาทีด้วย LazyLLM โดยไม่สูญเสียคุณภาพ
โดยรวมแล้ว LazyLLM ถือเป็นความก้าวหน้าที่น่าสนใจในการเพิ่มประสิทธิภาพ LLMs สำหรับแอปพลิเคชันที่ต้องประมวลผลบริบทข้อมูลนำเข้าที่ยาวและมีรายละเอียดเยอะ ความสามารถในการผสานรวมเข้ากับโมเดลที่มีอยู่โดยไม่ต้องฝึกฝนใหม่ ทำให้ LazyLLM เป็นเครื่องมือที่มีคุณค่าสำหรับนักพัฒนาที่ต้องการเพิ่มประสิทธิภาพของโมเดลภาษา
ทาง Amity Solutions ก็มีบริการ Amity bots ที่ช่วยเพิ่มประสิทธิภาพการดำเนินงานเช่นกัน ปรึกษาผู้เชี่ยวชาญของเราได้ที่นี่