เทคโนโลยี AI กำลังก้าวกระโดดอีกครั้ง! Google และ Samsung เพิ่งประกาศเปิดตัวฟีเจอร์ใหม่ล่าสุดที่จะเปลี่ยนวิธีการใช้งานสมาร์ทโฟนของเราไปอย่างสิ้นเชิง นั่นคือ Gemini Live ที่สามารถมองเห็นและเข้าใจสิ่งที่เราเห็นผ่านกล้องได้แบบเรียลไทม์
Gemini Live คืออะไร?
Gemini Live เป็นฟีเจอร์ใหม่ที่ช่วยให้ AI assistant สามารถเห็นและเข้าใจโลกรอบตัวเราผ่านกล้องสมาร์ทโฟนได้ โดยรองรับการสนทนาแบบธรรมชาติถึง 45 ภาษา ผู้ใช้สามารถแชร์หน้าจอหรือภาพจากกล้องให้ Gemini ดูได้ทันที และถามคำถามเกี่ยวกับสิ่งที่เห็นเพื่อรับคำแนะนำแบบเรียลไทม์
วิธีใช้งาน Gemini Live
การใช้งานทำได้ง่ายๆ เพียงแค่:
- แตะปุ่ม “Share screen with Live” บน Gemini assistant
- อนุญาตให้บันทึกหน้าจอ
- ถามคำถามเกี่ยวกับสิ่งที่เห็นบนหน้าจอ
หากต้องการใช้กล้อง ให้แตะไอคอนกล้องวิดีโอใน Gemini เพื่อเปิดโหมดวิดีโอสด จากนั้นสามารถชี้กล้องไปที่สิ่งต่างๆ และถามคำถามได้ทันที
ประโยชน์ของ Gemini Live
Google ได้ยกตัวอย่างการใช้งานที่น่าสนใจหลายอย่าง เช่น:
- ชี้กล้องไปที่ตู้เสื้อผ้ารกๆ เพื่อขอคำแนะนำในการจัดระเบียบ
- ขอความช่วยเหลือในการแก้ปัญหาอุปกรณ์ต่างๆ
- ปรึกษาเรื่องแฟชั่นและการแต่งตัว
- ขอไอเดียตกแต่งบ้าน
- ระดมความคิดสร้างสรรค์สำหรับงานศิลปะหรือ DIY
อุปกรณ์ที่รองรับ
ขณะนี้ Gemini Live รองรับเฉพาะสมาร์ทโฟนรุ่นล่าสุด ได้แก่:
- Google Pixel 9 Series
- Samsung Galaxy S25 Series
สำหรับ Samsung ผู้ใช้สามารถเรียกใช้ Gemini Live ได้โดยกดปุ่มด้านข้างค้างไว้ แล้วชี้กล้องไปยังสิ่งที่ต้องการ
การอัปเดตแบบพิเศษ
ที่น่าสนใจคือ Google ประกาศว่านี่เป็นส่วนหนึ่งของ Pixel Feature Drop ประจำเดือนเมษายน 2025 ซึ่งผิดไปจากรูปแบบปกติที่มักจะมีหลายฟีเจอร์ใหม่ในแต่ละครั้ง แสดงให้เห็นถึงความสำคัญของ Gemini Live ที่ Google ต้องการผลักดันอย่างเร่งด่วน
“นี่เป็นก้าวสำคัญที่จะนำ AI assistant เข้ามาใกล้ชิดกับชีวิตจริงของเรามากขึ้น แทนที่จะเป็นแค่เสียงจากหน้าจอ” – ผู้เชี่ยวชาญด้านเทคโนโลยี AI
ฟีเจอร์ใหม่นี้ถือเป็นการปฏิวัติวงการ AI บนสมาร์ทโฟนอย่างแท้จริง ทำให้ผู้ใช้สามารถโต้ตอบกับโลกรอบตัวผ่าน AI ได้อย่างไม่เคยมีมาก่อน นับเป็นจุดเริ่มต้นของยุคใหม่แห่งการใช้งาน AI ในชีวิตประจำวันอย่างแท้จริง