สหรัฐอเมริกา สหราชอาณาจักร ออสเตรเลีย และอีก 15 ประเทศได้ออกแนวปฏิบัติระดับโลกที่มุ่งช่วยปกป้องโมเดลปัญญาประดิษฐ์จากการปลอมแปลง โดยเรียกร้องให้บริษัทต่างๆ ตรวจสอบให้แน่ใจว่าโมเดลของตน "ปลอดภัยจากการออกแบบ" คำแนะนำส่วนใหญ่ประกอบด้วยคำแนะนำทั่วไป เช่น การควบคุมโครงสร้างพื้นฐานของโมเดล AI อย่างเข้มงวด การตรวจสอบโมเดลสำหรับการปลอมแปลงก่อนและหลังการเปิดตัว และการฝึกอบรมพนักงานเกี่ยวกับความเสี่ยงด้านความปลอดภัยทางไซเบอร์ คำแนะนำดังกล่าวแนะนำแนวปฏิบัติด้านความปลอดภัยทางไซเบอร์ที่บริษัท AI ควรนำไปใช้เมื่อออกแบบ พัฒนา เปิดตัว และติดตามโมเดล AI ประเทศอื่นๆ ที่ลงนามในแนวทางใหม่นี้ ได้แก่ แคนาดา ฝรั่งเศส เยอรมนี อิสราเอล อิตาลี ญี่ปุ่น นิวซีแลนด์ ไนจีเรีย นอร์เวย์ เกาหลีใต้ และสิงคโปร์ บริษัทปัญญาประดิษฐ์ เช่น OpenAI, Microsoft, Google, Anthropic และ Scale AI ก็มีส่วนในการพัฒนาคำแนะนำดังกล่าวเช่นกัน (คอยน์เทเลกราฟ)
ความคิดเห็นทั้งหมด