สมาร์ทโฟนและเทคโนโลยี AI กำลังเปลี่ยนแปลงโลกของเราอย่างรวดเร็ว แต่การกำกับดูแลที่เหมาะสมก็มีความสำคัญไม่แพ้กัน สหภาพยุโรปเพิ่งเปิดเผยร่างแรกของหลักปฏิบัติสำหรับโมเดล AI อเนกประสงค์ ซึ่งถือเป็นก้าวสำคัญในการควบคุมการพัฒนา AI ให้มีความปลอดภัยและน่าเชื่อถือ
ร่างกฎระเบียบสำหรับ AI อเนกประสงค์
สหภาพยุโรปได้เปิดเผยร่างแรกของหลักปฏิบัติสำหรับโมเดล AI อเนกประสงค์ (General-Purpose AI หรือ GPAI) ซึ่งเป็นส่วนหนึ่งของกฎหมาย EU AI Act ที่มีผลบังคับใช้เมื่อวันที่ 1 สิงหาคมที่ผ่านมา ร่างนี้มีความยาว 36 หน้า และคาดว่าจะได้รับการปรับปรุงเพิ่มเติมก่อนประกาศใช้จริงในเดือนพฤษภาคม 2025
โดยบริษัทเทคโนโลยียักษ์ใหญ่ที่คาดว่าจะต้องปฏิบัติตามกฎระเบียบนี้ ได้แก่:
- OpenAI ผู้พัฒนา ChatGPT
- Google กับโมเดล Gemini
- Meta เจ้าของโมเดล Llama
- Apple
- Microsoft
- Anthropic
- Mistral
ประเด็นสำคัญในร่างกฎระเบียบ
ร่างกฎระเบียบนี้ครอบคลุมประเด็นสำคัญหลายด้าน ได้แก่:
ความโปร่งใส
บริษัท AI จะต้องเปิดเผยรายละเอียดเกี่ยวกับ web crawler ที่ใช้ในการเทรนโมเดล ซึ่งเป็นประเด็นที่ถูกจับตามองอย่างใกล้ชิด โดยล่าสุด EU ถึงขั้นสอบสวนวิธีการเทรนแชทบอท Grok ของ X
การประเมินความเสี่ยง
ผู้พัฒนา AI จะต้องประเมินความเสี่ยงในด้านต่างๆ เช่น:
- ความปลอดภัยทางไซเบอร์
- การเลือกปฏิบัติที่อาจเกิดขึ้น
- โอกาสที่ระบบ AI จะควบคุมไม่ได้
การจัดการความเสี่ยงด้านเทคนิค
กฎระเบียบกำหนดให้มีการรักษาความปลอดภัยของข้อมูลโมเดล การควบคุมการเข้าถึงที่น่าเชื่อถือ และการประเมินประสิทธิภาพของมาตรการเหล่านี้อย่างต่อเนื่อง
การกำกับดูแล
เน้นย้ำถึงความรับผิดชอบภายในองค์กร การประเมินความเสี่ยงอย่างสม่ำเสมอ และการปรึกษาผู้เชี่ยวชาญภายนอกเมื่อจำเป็น
บทลงโทษที่รุนแรง
หากไม่ปฏิบัติตามกฎระเบียบ บริษัทอาจถูกปรับสูงถึง 35 ล้านยูโร (ประมาณ 1,400 ล้านบาท) หรือ 7% ของรายได้ประจำปีทั่วโลก แล้วแต่ว่าจำนวนใดจะสูงกว่า
“เอกสารฉบับสุดท้ายจะมีบทบาทสำคัญในการชี้นำการพัฒนาและการใช้งานโมเดล AI อเนกประสงค์ที่น่าเชื่อถือและปลอดภัยในอนาคต” – คณะกรรมาธิการยุโรป, พฤศจิกายน 2024
ท่าทีของบริษัทเทคโนโลยี
แม้ว่าบางบริษัท เช่น Meta และ Apple จะแสดงท่าทีคัดค้านด้วยการปฏิเสธที่จะลงนามใน EU AI Act แต่บริษัทยักษ์ใหญ่อย่าง OpenAI, Google และ Microsoft ก็ได้ให้การสนับสนุนข้อตกลงนี้
ในฐานะผู้ใช้งาน ดิฉันเชื่อว่ากฎระเบียบเหล่านี้มีความสำคัญอย่างยิ่ง การพัฒนา AI โดยเฉพาะในแง่ของการเทรนโมเดลและการประยุกต์ใช้ในอนาคต จำเป็นต้องได้รับการตรวจสอบอย่างใกล้ชิด เพื่อให้แน่ใจว่าเทคโนโลยีที่ทรงพลังนี้จะถูกใช้อย่างมีความรับผิดชอบและเป็นประโยชน์ต่อสังคมโดยรวม
ผู้มีส่วนได้ส่วนเสียสามารถแสดงความคิดเห็นต่อร่างนี้ได้จนถึงวันที่ 28 พฤศจิกายนนี้ ผ่านแพลตฟอร์ม Futurium ก่อนที่กฎระเบียบฉบับสมบูรณ์จะมีผลบังคับใช้ในวันที่ 1 พฤษภาคม 2025 นับเป็นก้าวสำคัญในการสร้างมาตรฐานระดับโลกสำหรับการพัฒนา AI ที่มีจริยธรรมและความรับผิดชอบ