คณะกรรมาธิการสหภาพยุโรปอนุญาตให้ฟ้องร้องผลิตภัณฑ์ AI ได้ง่ายขึ้น.
คณะกรรมาธิการยุโรปได้เสนอกฎใหม่เพื่อช่วยเหลือผู้ที่ได้รับอันตรายจากผลิตภัณฑ์โดยใช้ปัญญาประดิษฐ์ (AI) และอุปกรณ์ดิจิทัล เช่น โดรน
คำสั่งความรับผิดของ AI จะลดภาระการพิสูจน์ของผู้ฟ้องคดีเกี่ยวกับเหตุการณ์ที่เกี่ยวข้องกับรายการดังกล่าว
Didier Reynders กรรมาธิการยุติธรรมกล่าวว่าจะสร้างกรอบกฎหมายที่เหมาะสมกับยุคดิจิทัล
รถยนต์ไร้คนขับ ระบบสั่งงานด้วยเสียง และเสิร์ชเอ็นจิ้น ทั้งหมดอาจอยู่ภายใต้ขอบเขตของคำสั่งนี้
หากผ่าน กฎของคณะกรรมาธิการอาจดำเนินการควบคู่ไปกับกฎหมายปัญญาประดิษฐ์ที่เสนอโดยสหภาพยุโรปซึ่งเป็นกฎหมายฉบับแรกในประเภทนี้เพื่อกำหนดข้อจำกัดว่าระบบ AI จะถูกนำไปใช้อย่างไรและเมื่อใด
ระบบปัญญาประดิษฐ์ได้รับการฝึกฝนเกี่ยวกับข้อมูลหรือสารสนเทศจำนวนมากเพื่อให้เครื่องจักรสามารถทำงานซึ่งโดยทั่วไปจะถือว่าเป็นเรื่องของปัญญามนุษย์
คำอธิบายสื่อ
ดู: ปัญญาประดิษฐ์คืออะไร?
คำสั่งความรับผิดของ AI ซึ่งเผยแพร่โดยคณะกรรมาธิการยุโรปเมื่อวันพุธจะแนะนำ “ข้อสันนิษฐานของสาเหตุ” สำหรับผู้ที่อ้างว่าได้รับบาดเจ็บจากผลิตภัณฑ์ที่เปิดใช้งาน AI
ซึ่งหมายความว่าผู้ที่ตกเป็นเหยื่อจะไม่ต้องไขปัญหาระบบ AI ที่ซับซ้อนเพื่อพิสูจน์กรณีของตน ตราบใดที่สามารถแสดงการเชื่อมโยงเชิงสาเหตุกับประสิทธิภาพ AI ของผลิตภัณฑ์และอันตรายที่เกี่ยวข้องได้
เส้นสีเทาการนำเสนอ 2px
กล่องการวิเคราะห์โดย Zoe Kleinman บรรณาธิการด้านเทคโนโลยี
เป็นเวลานานแล้วที่บริษัทสื่อสังคมออนไลน์แอบแฝงข้อแม้ที่ว่าพวกเขาเป็นเพียงแพลตฟอร์มสำหรับสิ่งของของผู้อื่น ดังนั้นจึงไม่รับผิดชอบต่อเนื้อหาของมัน
สหภาพยุโรปไม่ต้องการให้เกิดสถานการณ์เช่นนี้ซ้ำกับบริษัทที่ผลิตโดรน เช่น เลิกยุ่งหากพวกมันก่อให้เกิดอันตรายเพียงเพราะบริษัทเองไม่ได้อยู่เบื้องหลังผู้ควบคุมโดยตรง
หากผลิตภัณฑ์ของคุณถูกตั้งค่าให้สามารถก่อให้เกิดความเสียหายหรือความเสียหายได้ คุณจะต้องรับผิดชอบหากผลิตภัณฑ์นั้นเกิดขึ้น นั่นคือข้อความที่ชัดเจน – และบางทีอาจเกินกำหนด
สิ่งนี้รุนแรงเกินไปสำหรับอุตสาหกรรมที่ค่อนข้างใหม่หรือไม่? หาก รับทำบัญชี รถพังเพราะกลไกภายในรถ นั่นขึ้นอยู่กับผู้ผลิต แต่พฤติกรรมของคนขับไม่ใช่
หากร่างนี้ผ่าน สายตาทุกคู่จะจับจ้องไปที่กรณีทดสอบแรก ยุโรปยังคงไล่ตามหางของเทคโนโลยีขนาดใหญ่ด้วยกฎระเบียบขนาดใหญ่ – แต่มันเป็นไปได้จริงที่นี่หรือไม่?
เส้นสีเทาการนำเสนอ 2px
จากข้อมูลของคณะกรรมาธิการยุโรปการใช้ AI ที่มีความเสี่ยงสูงอาจรวมถึงโครงสร้างพื้นฐานหรือผลิตภัณฑ์ที่อาจส่งผลกระทบโดยตรงต่อชีวิตและความเป็นอยู่ของใครบางคน เช่น การขนส่ง การให้คะแนนการสอบ และการควบคุมชายแดน
การเปิดเผยข้อมูลเกี่ยวกับผลิตภัณฑ์ดังกล่าวจะช่วยให้ผู้ที่ตกเป็นเหยื่อได้รับข้อมูลเชิงลึกมากขึ้นเกี่ยวกับความรับผิดชอบ แต่อยู่ภายใต้มาตรการป้องกันเพื่อ “ปกป้องข้อมูลที่ละเอียดอ่อน”
ในขณะที่บทบัญญัติดังกล่าวในคำสั่งอาจทำให้ธุรกิจ “ไม่มีความสุข” Sarah Cameron ผู้อำนวยการด้านกฎหมายด้านเทคโนโลยีของสำนักงานกฎหมาย Pinsent Masons กล่าวว่ากฎดังกล่าวช่วยชี้แจงความรับผิดต่อผลิตภัณฑ์ที่เปิดใช้งาน AI สำหรับผู้บริโภคและธุรกิจ
“อุปสรรคสำคัญต่อธุรกิจต่างๆ ที่นำ AI มาใช้คือความซับซ้อน ความเป็นอิสระ และความทึบ (ที่เรียกว่าเอฟเฟกต์กล่องดำ) ของ AI ทำให้เกิดความไม่แน่นอนเกี่ยวกับการสร้างความรับผิดและใครเป็นผู้รับผิดชอบ” เธอกล่าว
“ข้อเสนอจะทำให้แน่ใจว่าเมื่อระบบ AI บกพร่องและทำให้เกิดความเสียหายทางกายภาพหรือข้อมูลสูญหาย เป็นไปได้ที่จะขอค่าชดเชยจากผู้ให้บริการระบบ AI หรือจากผู้ผลิตรายใดก็ตามที่รวมระบบ AI เข้ากับผลิตภัณฑ์อื่น”
หัวข้อที่เกี่ยวข้อง