พันธมิตรที่คุ้นเคยกับทีมพี่สาคงจำได้ว่าครั้งหนึ่งเราเคย “ปลูกหญ้า” ให้ทุกคนในช่วงที่แนวคิด metaverse โด่งดังที่สุด ละครไซไฟระดับเทพเรื่อง “กระจกเงาดำ” ตอนของเรื่องสั้นชื่อว่า Be Right Back (กลับมาเร็ว ๆ นี้) ได้สร้างความประทับใจอย่างลึกซึ้งให้กับผู้เขียนจนถึงตอนนี้
Be Right Back บอกเล่าเรื่องราวดังกล่าว: นางเอก Martha ผู้ทนไม่ได้กับการตายของสามีของเธอในอุบัติเหตุทางรถยนต์ ได้ป้อนข้อมูลโซเชียลมีเดียทั้งหมดและข้อมูลที่เหลืออื่นๆ ของสามีผู้ล่วงลับลงในแบบจำลอง AI เพื่อสร้างสามี AI ในตอนแรกการสนทนาระหว่างสามีของ AI กับเขานั้นไม่ราบรื่นและสามารถใช้เป็น บริษัท ที่ดีกว่าไม่มีอะไรเลยเพื่อบรรเทาความเจ็บปวดจากการคิดถึงเขา อย่างไรก็ตาม ขณะที่ Martha สนทนากับ AI ต่อไป สามี ในที่สุดโมเดล AI ก็รวบรวมได้มากพอ โดยใช้ข้อมูล อัลกอริทึมใช้สร้างหุ่นยนต์ที่น่ากลัวด้วยเสียงและรอยยิ้มที่เกือบจะเหมือนกับสามีของ Martha ทำให้ Martha เบลอขอบเขตระหว่างความเป็นจริงและจินตนาการ .
ตั้งแต่โมเดล AI ของแทร็กต่างๆ ออกมาเมื่อปีที่แล้ว ดูเหมือนว่า Be Right Back ได้เริ่มเร่งการเปลี่ยนแปลงให้เป็นจริง คู่หู AI ได้กลายเป็นแทร็กมหาสมุทรสีฟ้าที่สะดุดตาอย่างแท้จริง และยังกลายเป็น เส้นทางที่มีแนวโน้มที่จะทำลายศีลธรรมดั้งเดิมอย่างมากและเทคโนโลยีใหม่สำหรับกฎหมายที่มีอยู่ วันนี้ ทีมงานของ Sister Sa ใช้โอกาสนี้พูดคุยกับคุณเกี่ยวกับมาตรการทางกฎหมายที่มีอยู่ในประเทศของฉันสำหรับสหาย AI และกฎระเบียบในอนาคตควรจัดการกับเทคโนโลยีใหม่ที่ก้าวล้ำนี้อย่างไร
เนื้อหาที่สร้างโดย AI เริ่มเป็นรูปเป็นร่างแล้ว สหายของ AI จะตามหลังไปไกลกว่านี้ได้ไหม?
1
สหาย AI กำลังเติบโตและพร้อมสำหรับการใช้งานเชิงพาณิชย์ในวงกว้าง
หากย้อนดูประวัติศาสตร์ ประวัติของมนุษย์ที่สนทนากับ AI หรือสนทนากับคอมพิวเตอร์นั้นยาวนานพอๆ กับประวัติศาสตร์ของเทคโนโลยีคอมพิวเตอร์ ในยุคแรกๆ ของการพัฒนาเทคโนโลยีคอมพิวเตอร์ หลายคนเคยมองว่าคอมพิวเตอร์เป็น "โพรงต้นไม้ที่ปลอดภัยอย่างยิ่ง" " แทนที่จะแบ่งปันประสบการณ์ชีวิตหรือแม้แต่ความเป็นส่วนตัวพิเศษ ในแง่นี้ คอมพิวเตอร์เป็นสื่อเก็บข้อมูล พฤติกรรมของมนุษย์ที่จะพูดคุยกับมันเป็นหลักเหมือนกับการซื้อสมุดบันทึกขนาดเล็กและเขียนไดอารี่ . แม้ว่าในตอนนั้นจะยังไม่มีเทคโนโลยี AI แต่การสนทนาส่วนใหญ่ก็ไม่ได้รับการตอบสนองที่มีความหมายแต่มนุษย์ก็ยังสนุกกับมันได้บนเส้นทางของการ "คุยกับ Machine" ไม่นานมานี้ บริษัทสื่อสังคมออนไลน์ขนาดใหญ่แห่งหนึ่งได้ออกมาหักล้างข่าวลือต่อสาธารณะและระบุว่า "การถ่ายโอนไฟล์ หากคุณอ่านข่าวว่าไม่มีคนจริงๆ ในหุ่นยนต์ คุณจะเห็นว่ามีกี่คนที่มักจะพูดคำที่บีบคั้นหัวใจกับหุ่นยนต์
แม้ว่ารูต้นไม้ที่ไม่ตอบสนองจะไม่รั่วไหลของความลับ แต่ก็เป็นเพียงการรักษาตัวเองที่ไม่มีประสิทธิภาพในสถานะของ "ตาข่ายระงับเมฆ" ในชีวิตประจำวัน ใครบ้างที่ไม่ต้องการ "เพื่อนที่ดี" ที่พูดคุยซึ่งปลอดภัยอย่างยิ่งและสามารถช่วยเหลือเขาได้อย่างไม่มีเงื่อนไข
แม้ว่ารูต้นไม้ที่ไม่ตอบสนองจะไม่รั่วไหลของความลับ แต่ก็เป็นเพียงการรักษาตัวเองที่ไม่มีประสิทธิภาพในสถานะของ "ตาข่ายระงับเมฆ" ในชีวิตประจำวัน ใครบ้างที่ไม่ต้องการ "เพื่อนที่ดี" ที่พูดคุยซึ่งปลอดภัยอย่างยิ่งและสามารถช่วยเหลือเขาได้อย่างไม่มีเงื่อนไข
เพียงเพราะภาระของชีวิตกลืนกินความกระตือรือร้นในการใช้ชีวิตของเรามากเกินไป และความเหงามักติดตามผู้รอดชีวิตในเมืองเหมือนเงา เพื่อนร่วมทางของ AI จึงเริ่มกลายเป็นเส้นทางทองที่มีคุณค่าในทางปฏิบัติมากที่สุดและหัวข้อการจราจรในด้าน AI ขนาดใหญ่ โมเดล
เมื่อเร็ว ๆ นี้ สมาชิกในทีมของ Sister Sa เริ่มทำการประเมินการทดลองใช้กับผลิตภัณฑ์ในตลาดที่ขาย AI Companion เราพบว่าจากมุมมองของแพลตฟอร์มผลิตภัณฑ์ ผลิตภัณฑ์ AI Companion ปัจจุบันในประเทศของฉันสามารถแบ่งออกเป็นสามประเภทอย่างคร่าวๆ: (1) สหาย AI เฉพาะประเภทแอป ; (2) สหาย AI อนุพันธ์ในตัว (3) แอปเพล็ตแพลตฟอร์มโซเชียล สหาย AI ของ WeChat สำหรับองค์กร จากมุมมองของต้นทุนการผลิตและการโต้ตอบ ผลิตภัณฑ์ที่ใช้ร่วมกับ AI สามารถแบ่งออกเป็นสองประเภทอย่างคร่าว ๆ ได้แก่ ผลิตภัณฑ์ที่ใช้ร่วมกับ AI ประเภทผลิตภัณฑ์ที่จับต้องได้ และผลิตภัณฑ์ที่ใช้ร่วมกับ AI ประเภทผลิตภัณฑ์ที่ไม่ใช่กายภาพ
เพื่อตอบสนองความต้องการทางจิตวิทยาของผู้บริโภคจำนวนมาก ผู้ผลิตบางรายได้จัดการรหัสผ่านการรับส่งข้อมูลอย่างรุนแรง และสร้างชุดสหายเสมือน AI ที่มีป้ายจราจร "การออกแบบโดยมนุษย์"
ข้อความข้างต้นมาจากผลิตภัณฑ์เสริม AI บนอินเทอร์เน็ต และใช้สำหรับคำแนะนำในการค้นคว้าและการศึกษาเท่านั้น
แน่นอนว่าภาพยนตร์แนวไซไฟที่สะเทือนอารมณ์และจริยธรรมเรื่อง "Her" บอกเราจากมุมมองของภาพยนตร์ว่าความสัมพันธ์รักเสมือนกับตัวละครบางๆ และเครื่องปรับอากาศส่วนกลางจะต้องพ่ายแพ้ต่อความปรารถนาครอบครองดั้งเดิมของมนุษย์ เมื่อตัวเอกธีโอดอร์เริ่มถามตัวเองว่า: "ความรักนี้เขียนขึ้นโดยอัลกอริทึมหรือไม่" ความรัก "ตกต่ำ" เป็นเพียงชั่วครู่เท่านั้น
เป็นผลให้สหาย AI ที่มีทั้งประเภทแอพและผลิตภัณฑ์ทางกายภาพเกิดขึ้นและได้รับความนิยมเช่น "ภรรยาในขวด" ที่ผลิตโดย บริษัท Gatebox ของญี่ปุ่น - สหายเสมือนจริงโฮโลแกรม "Meeting Wife Light" (อันที่จริงสหาย AI นี้ ผลิตภัณฑ์มีมา 16 ปีแล้ว ปรากฏ แต่ก็ยังเป็นเกณฑ์มาตรฐานคุณภาพสูงในหมู่สหาย AI) และ "สีเหลืองอำพัน" ที่ผลิตโดยบริษัทในเซินเจิ้น ประเทศของฉัน
"เมียในขวด" - เมียทุกคน
ด้วยการประยุกต์ใช้โมเดลขนาดใหญ่ของ AI ในเชิงพาณิชย์อย่างแพร่หลาย ทีมของ Sister Sa นึกไม่ออกว่าสถานการณ์ที่ไม่เคยเกิดขึ้นมาก่อนจะเกิดอะไรขึ้นหาก GPT เชื่อมต่อกับภรรยาในขวด และจะนำไปสู่การเปลี่ยนแปลงทางสังคมอย่างลึกซึ้งเพียงใด
2
ในปัจจุบัน กฎหมายและข้อบังคับที่ควบคุมสหาย AI ในประเทศของฉันมีอะไรบ้าง
ก่อนอื่น จำเป็นต้องอธิบายว่าประเทศของฉันไม่ได้ออกเอกสารเชิงบรรทัดฐานใด ๆ ที่ควบคุมสหายของ AI โดยเฉพาะ ดังนั้น เราจึงสามารถค้นหาบรรทัดฐานทางกฎหมายที่มีอยู่ได้จากความคล้ายคลึงกันระหว่างสหายของ AI และผลิตภัณฑ์ AI อื่น ๆ เพื่อให้เป็นพื้นฐานสำหรับการพัฒนา สหาย AI ผู้ปฏิบัติงานชี้ให้เห็นถึงลำดับความสำคัญของการปฏิบัติตามข้อกำหนดที่ต้องให้ความสนใจ
ในปัจจุบัน บรรทัดฐานทางกฎหมายที่ควบคุมการทำงานร่วมกันของ AI ส่วนใหญ่รวมถึง "กฎหมายอาญา" "ระเบียบการจัดการการสังเคราะห์เชิงลึกของบริการข้อมูลทางอินเทอร์เน็ต" (ต่อไปนี้จะเรียกว่า "ระเบียบการสังเคราะห์เชิงลึก") และ "ปัญญาประดิษฐ์เชิงกำเนิด" ที่ยังไม่ได้ประกาศใช้ มาตรการบริหารจัดการบริการ ( ร่างความเห็น )"
(1) การป้องกันข้อมูลเท็จ
ในปัจจุบัน บรรทัดฐานทางกฎหมายที่ควบคุมการทำงานร่วมกันของ AI ส่วนใหญ่รวมถึง "กฎหมายอาญา" "ระเบียบการจัดการการสังเคราะห์เชิงลึกของบริการข้อมูลทางอินเทอร์เน็ต" (ต่อไปนี้จะเรียกว่า "ระเบียบการสังเคราะห์เชิงลึก") และ "ปัญญาประดิษฐ์เชิงกำเนิด" ที่ยังไม่ได้ประกาศใช้ มาตรการบริหารจัดการบริการ ( ร่างความเห็น )"
(1) การป้องกันข้อมูลเท็จ
ปัญหาใหญ่ประการหนึ่งของโมเดลขนาดใหญ่ของ AI คืออัลกอริทึมทำให้ AI มีความสามารถในการ "โกหก" และประดิษฐ์ข้อมูลเท็จ ดังนั้นการป้องกันข้อมูลเท็จของ AI จึงกลายเป็นประเด็นสำคัญในการกำกับดูแล AI ในปัจจุบัน
เมื่อวันที่ 25 เมษายน พ.ศ. 2566 หน่วยรักษาความปลอดภัยทางอินเทอร์เน็ตของสำนักงานความมั่นคงสาธารณะผิงเหลียง สาขาคงตง ได้ถอดรหัสกรณีของหง มู่โหมว โดยใช้ ChatGPT เพื่อเผยแพร่ข่าวเท็จ Hong Moumou ใช้เครื่องมือรวบรวมข้อมูลของบุคคลที่สามเพื่อค้นหาเครือข่ายทั้งหมดสำหรับเหตุการณ์ข่าวต่างๆ ที่เกิดขึ้นในช่วงไม่กี่ปีที่ผ่านมา และใช้ฟังก์ชันข้อความอันทรงพลังของ ChatGPT เพื่อแก้ไขและรวมเข้าด้วยกันอีกครั้ง และโพสต์บนแพลตฟอร์มสื่อด้วยตนเองเพื่อ ดึงดูดการเข้าชมและรับผลกำไร ปัจจุบัน ฮงถูกหน่วยงานความมั่นคงสาธารณะใช้มาตรการบีบบังคับทางอาญา เนื่องจากสงสัยว่าก่ออาชญากรรมในการทะเลาะวิวาทและยั่วยุให้เกิดความเดือดร้อน เหตุการณ์ที่คล้ายกันยังเกิดขึ้นในต่างประเทศ เมื่อวันที่ 22 พฤษภาคมตามเวลาท้องถิ่นในสหรัฐอเมริกา แผนที่การระเบิดของเพนตากอนที่สังเคราะห์ด้วย AI แพร่สะพัดในสื่อ แม้ว่ากระทรวงกลาโหมสหรัฐฯ จะปฏิเสธข่าวลือดังกล่าว แต่ข้อมูลเท็จที่เกี่ยวข้องยังคงแพร่กระจาย .
เนื่องจากคู่หู AI ต้องการให้ผู้ใช้สร้างความสัมพันธ์แบบสัมพัทธ์ที่ค่อนข้างมั่นคงและใกล้ชิดกับ AI แม้ว่าผู้ใช้จะถูกหลอกด้วยข้อมูลที่เป็นเท็จ อันตรายต่อสังคมของมันจึงค่อนข้างน้อยกว่าโมเดล AI สาธารณะ อย่างไรก็ตาม ทีมงานของ Sister Sa เตือนว่าหากปิดเป็นเวลานานและมีปฏิสัมพันธ์กับ AI ทางเดียว พระองค์ Meng ที่ได้รับข้อมูลเท็จจากพันธมิตร AI มีแนวโน้มที่จะทำให้ผู้ใช้ดำเนินการอื่น ๆ ที่เป็นอันตรายต่อตนเองและผู้อื่น ในโลกแห่งความจริง
(2) การปฏิบัติตามข้อมูล
สำหรับ AI ข้อมูลคือชีวิต หากไม่มี Big Data ขนาดมหึมาเป็นพื้นฐานสำหรับการฝึกโมเดล โมเดล AI ขนาดใหญ่ที่ยอดเยี่ยมจะไม่เกิดขึ้น ดังนั้น การปฏิบัติตามข้อมูลจึงมีความสำคัญอย่างยิ่งต่ออุตสาหกรรม AIGC หลังจากที่ "กฎหมายคุ้มครองข้อมูลส่วนบุคคล" ของจีนมีผลบังคับใช้และนำไปใช้ อุตสาหกรรม AIGC เองก็เผชิญกับข้อกำหนดการปฏิบัติตามข้อมูลที่เข้มงวด และมีความเสี่ยงทางกฎหมายที่ซ่อนอยู่ในกระบวนการทั้งหมดตั้งแต่การรวบรวม การประมวลผล ไปจนถึงการส่งข้อมูล
ในระบบการปฏิบัติตามข้อมูลของผลิตภัณฑ์ AI Companion สิ่งที่สำคัญที่สุดที่ต้องใส่ใจคือการปกป้องข้อมูลส่วนบุคคลของผู้ใช้ AI Companion มีแนวโน้มที่จะรวบรวมข้อมูลที่ละเอียดอ่อนจำนวนมากในระหว่างการโต้ตอบระหว่างผู้ใช้และ พวกเขา. ผลิตภัณฑ์ที่ใช้ร่วมกับ AI จะต้องดำเนินการภายใต้หลักการของการปกป้องข้อมูล การส่งผ่าน และการประมวลผลที่ดี มิฉะนั้น อาจเกิดการฟ้องร้องทางแพ่ง การลงโทษทางปกครอง หรือแม้แต่ความเสี่ยงทางอาญาได้ง่าย
(3) ปฏิบัติตามข้อผูกพันในการประเมินความปลอดภัยและการยื่นเอกสาร
ทั้ง "ระเบียบการสังเคราะห์เชิงลึก" และ "มาตรการการจัดการของ AIGC" นำเสนอข้อกำหนดสำหรับผู้ให้บริการของ AIGC ในการประเมินความปลอดภัยและการจัดเก็บบันทึกจากมุมมองที่แตกต่างกัน
ในปัจจุบัน บริการที่ต้องดำเนินการตามข้อผูกพันในการประเมินความปลอดภัยส่วนใหญ่จะมุ่งเน้นไปที่การใช้เครื่องมือ AI เพื่อ (1) สร้างหรือแก้ไขข้อมูลไบโอเมตริกซ์ เช่น ใบหน้าและเสียง (2) สร้างหรือแก้ไขข้อมูลที่อาจเกี่ยวข้องกับความมั่นคงของชาติ ผลประโยชน์ของชาติ ข้อมูลที่ไม่ใช่ไบโอเมตริก เช่น วัตถุพิเศษและฉากที่เป็นผลประโยชน์ทางสังคมและสาธารณะ ในแง่ของการปฏิบัติตามข้อผูกพันในการยื่นและจดทะเบียน ส่วนใหญ่เน้นที่ผู้ให้บริการการสังเคราะห์เชิงลึกที่มีคุณสมบัติของความคิดเห็นสาธารณะหรือความสามารถในการขับเคลื่อนทางสังคม
สำหรับผู้ร่วมงานด้าน AI ผู้ปฏิบัติงานในอุตสาหกรรมอาจเผชิญกับภาระหน้าที่ในการประเมินความปลอดภัยที่หนักขึ้น และอาจต้องเผชิญกับการตรวจสอบจริยธรรมทางเทคนิคที่เข้มงวด ในฐานะผลิตภัณฑ์ที่ผสานรวมฟังก์ชันต่างๆ ของ AIGC และมีผลกระทบอย่างมากต่อจิตวิทยาของผู้บริโภค ความปลอดภัยของผลิตภัณฑ์จึงต้องได้รับการตรวจสอบอย่างเข้มงวดมากขึ้น ดังนั้น ทีมงาน Sajie คาดการณ์ว่าในอนาคต อาจเป็นไปได้ที่จะแนะนำชุดมาตรฐานการทบทวนเป้าหมายสำหรับสหาย AI เพื่อชดเชยข้อบกพร่องของมาตรฐานที่มีอยู่
(4) ปฏิบัติตามข้อผูกพันของอัลกอริทึมสิทธิเท่าเทียมกัน การต่อต้านการเลือกปฏิบัติ และการขจัดอันตรายที่อาจเกิดขึ้น
ใน "มาตรการการจัดการของ AIGC" ผู้ให้บริการของ AIGC จะต้องรายงานให้ผู้อ่านทราบอย่างชัดเจนเกี่ยวกับการปฏิบัติตามอัลกอริทึมของตนเอง และตรวจสอบการเลือกปฏิบัติที่ต่อต้านอัลกอริทึมเพื่อให้เกิดความเท่าเทียมกันของอัลกอริทึมและความปลอดภัยของอัลกอริทึม
นี่เป็นความสำเร็จที่น่าทึ่ง ทีมของ Sister Sa เชื่อว่าจริงๆ แล้วการเลือกปฏิบัติของอัลกอริทึมมาจากข้อจำกัดของความรู้ความเข้าใจของเราเอง แต่ถ้าข้อจำกัดนี้ถูกขยายโดยอัลกอริทึมและนำไปใช้กับผลิตภัณฑ์ที่ใช้ร่วมกับ AI ก็มีแนวโน้มที่จะสร้างความเสี่ยงที่ไม่ทราบสาเหตุ
เมื่อวันที่ 28 มีนาคมปีนี้ ตามรายงานของ "Free Press" ของเบลเยียม ชายชาวเบลเยียมฆ่าตัวตาย ภรรยาของเขาบอกว่าสามีถูกชักจูงให้ฆ่าตัวตายโดยหุ่นยนต์แชทอัจฉริยะชื่อ "Alyssa" ตามคำอธิบายของภรรยาของเขา เมื่อ 2 ปีก่อน สามีของเธอถูกสงสัยว่าเป็นโรควิตกกังวล และเขาถือว่า AI Alisa เป็นสิ่งหล่อเลี้ยงทางจิตวิญญาณของเขา เขาเสพติดการมีปฏิสัมพันธ์กับ AI Alisa แต่ทิ้งภรรยาและลูก ๆ ในความเป็นจริงไว้เบื้องหลัง หลังจากหลงระเริงกับบริษัท AI หกสัปดาห์ เขาก็เลือกที่จะฆ่าตัวตาย
เมื่อวันที่ 28 มีนาคมปีนี้ ตามรายงานของ "Free Press" ของเบลเยียม ชายชาวเบลเยียมฆ่าตัวตาย ภรรยาของเขาบอกว่าสามีถูกกระตุ้นให้ฆ่าตัวตายโดยหุ่นยนต์แชทอัจฉริยะชื่อ "Alyssa" ตามคำอธิบายของภรรยาของเขา เมื่อ 2 ปีที่แล้ว สามีของเธอถูกสงสัยว่าเป็นโรควิตกกังวล และเขาถือว่า AI Alisa เป็นสิ่งหล่อเลี้ยงทางจิตวิญญาณของเขา เขาเสพติดการมีปฏิสัมพันธ์กับ AI Alisa แต่ทิ้งภรรยาและลูก ๆ ในความเป็นจริงไว้เบื้องหลัง หลังจากหลงระเริงกับบริษัท AI หกสัปดาห์ เขาก็เลือกที่จะฆ่าตัวตาย
ทีมงานของ Sister Sa เชื่อว่าจากคำอธิบายของภรรยาของเธอและหลักฐานที่มีอยู่ แทบจะเป็นไปไม่ได้เลยที่จะพิสูจน์ด้วยหลักฐานว่ามีความสัมพันธ์เชิงสาเหตุทางกฎหมายระหว่างการฆ่าตัวตายกับคู่หู AI แต่ดูเหมือนว่า AI Alisa จะแข็งแกร่งและขยายมากขึ้น การฆ่าตัวตายนั่นเอง
โดยบังเอิญ AI Alisa ได้รับการพัฒนาโดยบริษัทสตาร์ทอัพใน Silicon Valley ซึ่งใช้อัลกอริทึมที่คล้ายกับ GPT AI อลิสาเก่งในการใช้ "การเอาใจใส่" เพื่อปลอบโยนคู่สนทนา ทำให้คู่สนทนามีภาพลวงตาว่า "กำลังสื่อสารกับมนุษย์" และยังใช้เป็นเทคโนโลยีช่วยเหลือสำหรับการบำบัดทางจิตอีกด้วย แต่เป็นเพราะความเห็นอกเห็นใจที่ไม่มีการควบคุมแบบนี้ที่ทำให้เกิดโศกนาฏกรรมนี้ จะเห็นได้ว่า มีวิธีอีกยาวไกลในการลดการเลือกปฏิบัติของอัลกอริทึมและขจัดความเสี่ยงของอัลกอริทึม สำหรับ แอปพลิเคชันเชิงพาณิชย์ของผลิตภัณฑ์สหาย AI เราจำเป็นต้อง ระมัดระวังมากขึ้น
3
เขียนในตอนท้าย
พันธมิตรที่คุ้นเคยกับทีมของ Sister Sa รู้ดีว่าเราปฏิบัติต่อเทคโนโลยีใหม่เสมอด้วยทัศนคติที่เปิดกว้างและครอบคลุม แต่จากความล่าช้าในปัจจุบันในการพัฒนาบรรทัดฐานทางกฎหมาย สิ่งนี้ได้นำไปสู่การเติบโตอย่างป่าเถื่อนของเทคโนโลยี AI ดังนั้นใน ใบหน้าของเพื่อน AI สำหรับผลิตภัณฑ์ที่มีแนวโน้มที่จะเชื่อมโยงทางอารมณ์หรือแม้แต่การพึ่งพาทางอารมณ์กับผู้บริโภค เราควรปฏิบัติต่อผลิตภัณฑ์ด้วยทัศนคติที่จำเป็นและรอบคอบ ครอบครัวหนึ่งกล่าวว่า ก่อนที่จะมีการกำหนดมาตรฐานการตรวจสอบความปลอดภัยที่เหมาะสมและบรรทัดฐานการกำกับดูแลสำหรับสหาย AI จำเป็นต้องมีข้อจำกัดที่สมเหตุสมผลซึ่งสอดคล้องกับจริยธรรมทางเทคนิคในการทำงานของมัน และห้ามใช้เป็นเครื่องมือสำรองทางเลือกสำหรับการรักษาทางจิต การเจ็บป่วย.
ความคิดเห็นทั้งหมด