ภายใต้สภาพที่เห็นชัดมากขึ้นเรื่อยๆ ว่า การพัฒนา Generative AI สามารถก่อให้เกิดความเสี่ยงมากมายหลายด้าน เช่น การทำ Deepfake ผลักดันให้ Big Tech สร้างข้อตกลงและฟอรัมใหม่ๆ เพื่อควบคุมหรือกำกับดูแลการพัฒนา AIล่าสุด Google จัดตั้งกลุ่มให้คำแนะนำด้าน AI ใหม่ ภายใต้ชื่อ Coalition for Secure AI (CoSAI)
Google ระบุว่า การตั้ง CoSAI มีวัตถุประสงค์เพื่อส่งเสริมมาตรการรักษาความปลอดภัยรอบด้าน สำหรับจัดการความเสี่ยงเฉพาะที่มาพร้อมกับ AI
“AI จำเป็นต้องมีกรอบงานด้านความปลอดภัยและมาตรฐานที่นำไปปฏิบัติได้จริง เพื่อให้สามารถตามทันการเติบโตที่รวดเร็ว นั่นคือเหตุผลที่เมื่อปีที่แล้ว เราได้แชร์ความคิดการทำ Secure AI (SAIF) โดยรู้ดีว่าเป็นขั้นตอนแรกเท่านั้น”
“แน่นอนว่าการนำกรอบงานในอุตสาหกรรมใดๆ มาใช้จริงต้องอาศัยความร่วมมืออย่างใกล้ชิดกับผู้อื่น เหนือสิ่งอื่นใด ต้องมีเวทีเพื่อให้สิ่งนั้นเกิดขึ้น”
Google ร่วมลงนามในโครงการตั้ง CoSAI ร่วมกับ Amazon, IBM, Microsoft, NVIDIA และ OpenAI สร้าง โซลูชั่นโอเพ่นซอร์สเพื่อให้แน่ใจว่าการพัฒนา AI ปลอดภัยมากขึ้น รวมถึงยังจะร่วมกันกำหนดแนวทางป้องกันช่วยหลีกเลี่ยงการแฮ็กและการละเมิดข้อมูลด้วย
มีความคืบหน้าของโครงการอื่นๆ ซึ่งเน้นพัฒนา AI อย่างยั่งยืนและปลอดภัย อาทิ
1. Meta, Google, Amazon, Microsoft และ OpenAI ร่วมลงนาม 2 แผนงาน ประกอบด้วย
- GoogleFrontier Model Forum (FMF) มีเป้าหมายสร้างมาตรฐานและระเบียบข้อบังคับของอุตสาหกรรมเกี่ยวกับการพัฒนา AI
- จัดทำโครงการ “Safety by Design” เน้นใช้ชุดข้อมูลการฝึกอบรม AI ที่ได้รับจากแหล่งที่มีความรับผิดชอบ ป้องกันการใช้ข้อมูลจากสื่อล่วงละเมิดทางเพศเด็ก
2. รัฐบาลสหรัฐฯ ตั้ง AI Safety Institute Consortium (AISIC) มีบริษัทและองค์กรเข้าร่วมมากกว่า 200 แห่ง
ด้านสหภาพยุโรป ข้อมูลล่าสุด ระบุว่า กำลังศึกษาอันตรายที่อาจเกิดขึ้นจากการพัฒนา AI อย่างรวดเร็ว รวมถึงสิ่งที่ครอบคลุมหรือไม่ภายใต้ GDPR (General Data Protection Regulation) กฎระเบียบคุ้มครองประชาชนใน EU จากการที่ความเป็นส่วนตัวและข้อมูลส่วนบุคคลถูกล่วงละเมิดมากขึ้นในโลกยุคใหม่
โดย GDPR มีบทลงโทษหนัก ระบุว่า การเก็บและประมวลผลข้อมูลส่วนบุคคลของประชาชน EU ผู้ไม่ปฎิบัติตามจะถูกปรับเป็นจำนวนเงินถึง 20 ล้านยูโร หรือ 2-4% ของรายได้ต่อปีทั่วโลก ขึ้นอยู่กับว่าวงเงินใดมากกว่าขณะที่ภูมิภาคอื่นๆ ก็กำลังศึกษาเรื่องเดียวกัน
ความร่วมมือของ Big Tech จึงเป็นสิ่งจำเป็น เพราะมีแนวโน้มว่า การบังคับใช้กฎหมายคงไม่เกิดขึ้นเร็วๆ นี้ หากอันตรายยังไม่เกิดขึ้นจริง แต่กว่าจะถึงเวลานั้นก็ยังเบาใจได้เพราะโลกมีกลุ่มอุตสาหกรรมประกอบด้วยบริษัทต่างๆ ให้คำมั่น พร้อมปฏิบัติตามกฎเกณฑ์ที่กำหนดไว้ผ่านข้อตกลงร่วมกันเรียบร้อยแล้ว
ที่มา https://blog.google/technology/safety-security/google-coalition-for-secure-ai/