.webp)
นี่คือสารสำคัญที่ส่งตรงจากเวที Google I/O 2025 งานประชุมนักพัฒนาที่ปีนี้ให้ความรู้สึกราวกับได้แอบส่องอนาคตของการทำงานร่วมกันระหว่างมนุษย์และ AI อย่างลึกซึ้ง
ด้วยวิสัยทัศน์ที่กล้าหาญและเดโมสุดตื่นตา Google เผยให้เห็นถึงทิศทางใหม่ของปัญญาประดิษฐ์ — จากระบบที่เคยตอบคำถาม มาเป็น AI ที่ “มองเห็น คิดวิเคราะห์ และลงมือทำ” อย่างเข้าใจบริบท
ยินดีต้อนรับสู่ยุคของ AI แบบ World Model — ที่ไม่ได้เป็นแค่ผู้ช่วย แต่เป็น คู่คิด ในการตัดสินใจ
บนเวทีใหญ่ Demis Hassabis ซีอีโอของ Google DeepMind กล่าวอย่างมั่นใจว่า:
“เราไม่ได้แค่พัฒนา AI ที่คุยเก่งขึ้น — แต่กำลังสร้าง AI ที่สร้าง ‘โมเดลทางความคิด’ ของโลกจริง เพื่อช่วยมนุษย์คิด วางแผน และลงมือทำได้อย่างมีประสิทธิภาพ”
(Blog.Google, 2025)
นี่คือก้าวกระโดดครั้งใหญ่จาก AI รุ่นก่อน ๆ
Gemini 2.5 Pro ที่เปิดตัวในงานนี้ ไม่ใช่แค่โมเดลภาษาแบบเดิม ๆ อีกต่อไป แต่มันคือ “World Model” — ระบบที่ถูกฝึกให้จำลองและเข้าใจกลไกของโลก เพื่อให้สามารถ:
พูดง่าย ๆ คือ เปลี่ยนจาก AI ที่ให้ความหมายแบบ “พจนานุกรม” สู่ AI ที่คิดเป็นแบบ “นักกลยุทธ์”
Gemini 2.5 Pro ไม่ได้เป็นแค่โมเดลภาษา แต่พัฒนาไปสู่การรองรับข้อมูล “หลายมิติ” หรือ Multimodal AI อย่างแท้จริง โดยสามารถเข้าใจ:
AI Agents: เพียงคำสั่งเดียว กับการลงมือทำจริง
หนึ่งในไฮไลท์ที่น่าตื่นเต้นที่สุดของ Google I/O 2025 คือการเปิดตัว AI Agent Framework — ระบบใหม่ที่ยกระดับความหมายของ “ผู้ช่วย” ขึ้นไปอีกขั้น
ลองจินตนาการว่าคุณพูดกับมือถือว่า
“ช่วยวางแผนทริปสุดสัปดาห์ที่เชียงใหม่ ภายใต้งบ 5,000 บาท”
และ AI ไม่ได้แค่ค้นหาเที่ยวบินหรือที่พักให้ แต่ยังจองตั๋ว จัดรถไปสนามบิน ใส่กิจกรรมลงในปฏิทิน และแนะนำสิ่งที่ควรเตรียมตามสภาพอากาศด้วย
นี่ไม่ใช่แค่จินตนาการในอนาคต
แต่กำลังอยู่ในช่วงทดสอบกับ Google Workspace และ Android และจะเริ่มปล่อยให้ใช้งานจริงในปี 2025 นี้
ทำไมเรื่องนี้ถึงมีความหมาย?
นี่คือเหตุผลที่ AI แบบ World Model มีความสำคัญอย่างยิ่ง:
แต่พลังระดับนี้ก็มีคำถามด้านจริยธรรมที่ต้องคิดหนัก เช่น:
Google สัญญาว่าจะมีระบบควบคุม (guardrails), รายงานความโปร่งใส, และเครื่องมือสำหรับนักพัฒนา แต่ก็เหมือนกับเทคโนโลยีทรงพลังทุกชนิด “ความรับผิดชอบต่อสาธารณะ” จะเป็นกุญแจสำคัญที่สุด
เซอร์ไพรส์อีกหนึ่งอย่าง: Project Astra
อีกหนึ่งโมเมนต์สำคัญในงาน Google I/O 2025 คือการเปิดตัว Project Astra — โปรโตไทป์ AI Agent ที่ใช้กล้องและไมโครโฟนของมือถือคุณ เพื่อให้คำตอบแบบเรียลไทม์เกี่ยวกับสิ่งที่อยู่รอบตัวในโลกจริง
คุณสามารถเดินเข้าไปในห้องแล้วถามว่า:
Astra เห็น ได้ยิน และจำได้ เหมือนมีสมองอีกหนึ่งก้อนอยู่ในกระเป๋าคุณ — ที่คอยสังเกตและฟังโดยไม่ต้องมีคำสั่งปลุก (wake word)
แม้ตอนนี้จะยังเป็นแค่จุดเริ่มต้น Google ยืนยันว่า Astra จะปล่อยเวอร์ชันทดสอบสำหรับนักพัฒนาภายในปีนี้บนอุปกรณ์ Android บางรุ่น
งาน Google I/O ปีนี้ ไม่ได้เป็นแค่การเปิดตัวโมเดลที่เร็วขึ้น หรือแกดเจ็ตที่เจ๋งกว่าเดิม
แต่เป็นก้าวสำคัญของ AI ที่อยู่ร่วมกับโลกของเรา ไม่ใช่แค่ติดอยู่ในหน้าต่างแชทบอท
เรากำลังก้าวเข้าสู่ยุคที่:
ข้อความของ Google ชัดเจนว่า: อนาคตไม่ใช่แค่ AI ที่ฉลาดขึ้นในสุญญากาศ — แต่คือ AI ที่ฉลาดขึ้นในโลกของเรา
ด้วย Gemini 2.5 Pro, AI แบบ World Model และ AI Agents ที่วางแผนและลงมือแทนคุณ Google กำลังนำทางสู่อนาคตที่ AI ผสมผสานอย่างลึกซึ้งในชีวิตเรา แต่ในขณะเดียวกันก็เปิดบทสนทนาสำคัญเรื่อง จริยธรรม ความปลอดภัย และความไว้วางใจ
สิ่งที่แน่นอนคือ — การแข่งขัน AI ตอนนี้ไม่ได้วัดกันที่ความเร็วอีกต่อไป แต่วัดกันที่ “ความลึกซึ้ง” ของความเข้าใจ