Uncategorized

คณะกรรมาธิการสหภาพยุโรปอนุญาตให้ฟ้องร้องผลิตภัณฑ์ AI ได้ง่ายขึ้น.

คณะกรรมาธิการยุโรปได้เสนอกฎใหม่เพื่อช่วยเหลือผู้ที่ได้รับอันตรายจากผลิตภัณฑ์โดยใช้ปัญญาประดิษฐ์ (AI) และอุปกรณ์ดิจิทัล เช่น โดรน

คำสั่งความรับผิดของ AI จะลดภาระการพิสูจน์ของผู้ฟ้องคดีเกี่ยวกับเหตุการณ์ที่เกี่ยวข้องกับรายการดังกล่าว

Didier Reynders กรรมาธิการยุติธรรมกล่าวว่าจะสร้างกรอบกฎหมายที่เหมาะสมกับยุคดิจิทัล

รถยนต์ไร้คนขับ ระบบสั่งงานด้วยเสียง และเสิร์ชเอ็นจิ้น ทั้งหมดอาจอยู่ภายใต้ขอบเขตของคำสั่งนี้

หากผ่าน กฎของคณะกรรมาธิการอาจดำเนินการควบคู่ไปกับกฎหมายปัญญาประดิษฐ์ที่เสนอโดยสหภาพยุโรปซึ่งเป็นกฎหมายฉบับแรกในประเภทนี้เพื่อกำหนดข้อจำกัดว่าระบบ AI จะถูกนำไปใช้อย่างไรและเมื่อใด

ระบบปัญญาประดิษฐ์ได้รับการฝึกฝนเกี่ยวกับข้อมูลหรือสารสนเทศจำนวนมากเพื่อให้เครื่องจักรสามารถทำงานซึ่งโดยทั่วไปจะถือว่าเป็นเรื่องของปัญญามนุษย์

คำอธิบายสื่อ
ดู: ปัญญาประดิษฐ์คืออะไร?

คำสั่งความรับผิดของ AI ซึ่งเผยแพร่โดยคณะกรรมาธิการยุโรปเมื่อวันพุธจะแนะนำ “ข้อสันนิษฐานของสาเหตุ” สำหรับผู้ที่อ้างว่าได้รับบาดเจ็บจากผลิตภัณฑ์ที่เปิดใช้งาน AI

ซึ่งหมายความว่าผู้ที่ตกเป็นเหยื่อจะไม่ต้องไขปัญหาระบบ AI ที่ซับซ้อนเพื่อพิสูจน์กรณีของตน ตราบใดที่สามารถแสดงการเชื่อมโยงเชิงสาเหตุกับประสิทธิภาพ AI ของผลิตภัณฑ์และอันตรายที่เกี่ยวข้องได้

เส้นสีเทาการนำเสนอ 2px
กล่องการวิเคราะห์โดย Zoe Kleinman บรรณาธิการด้านเทคโนโลยี
เป็นเวลานานแล้วที่บริษัทสื่อสังคมออนไลน์แอบแฝงข้อแม้ที่ว่าพวกเขาเป็นเพียงแพลตฟอร์มสำหรับสิ่งของของผู้อื่น ดังนั้นจึงไม่รับผิดชอบต่อเนื้อหาของมัน

สหภาพยุโรปไม่ต้องการให้เกิดสถานการณ์เช่นนี้ซ้ำกับบริษัทที่ผลิตโดรน เช่น เลิกยุ่งหากพวกมันก่อให้เกิดอันตรายเพียงเพราะบริษัทเองไม่ได้อยู่เบื้องหลังผู้ควบคุมโดยตรง

หากผลิตภัณฑ์ของคุณถูกตั้งค่าให้สามารถก่อให้เกิดความเสียหายหรือความเสียหายได้ คุณจะต้องรับผิดชอบหากผลิตภัณฑ์นั้นเกิดขึ้น นั่นคือข้อความที่ชัดเจน – และบางทีอาจเกินกำหนด

สิ่งนี้รุนแรงเกินไปสำหรับอุตสาหกรรมที่ค่อนข้างใหม่หรือไม่? หาก รับทำบัญชี รถพังเพราะกลไกภายในรถ นั่นขึ้นอยู่กับผู้ผลิต แต่พฤติกรรมของคนขับไม่ใช่

หากร่างนี้ผ่าน สายตาทุกคู่จะจับจ้องไปที่กรณีทดสอบแรก ยุโรปยังคงไล่ตามหางของเทคโนโลยีขนาดใหญ่ด้วยกฎระเบียบขนาดใหญ่ – แต่มันเป็นไปได้จริงที่นี่หรือไม่?

เส้นสีเทาการนำเสนอ 2px
จากข้อมูลของคณะกรรมาธิการยุโรปการใช้ AI ที่มีความเสี่ยงสูงอาจรวมถึงโครงสร้างพื้นฐานหรือผลิตภัณฑ์ที่อาจส่งผลกระทบโดยตรงต่อชีวิตและความเป็นอยู่ของใครบางคน เช่น การขนส่ง การให้คะแนนการสอบ และการควบคุมชายแดน

การเปิดเผยข้อมูลเกี่ยวกับผลิตภัณฑ์ดังกล่าวจะช่วยให้ผู้ที่ตกเป็นเหยื่อได้รับข้อมูลเชิงลึกมากขึ้นเกี่ยวกับความรับผิดชอบ แต่อยู่ภายใต้มาตรการป้องกันเพื่อ “ปกป้องข้อมูลที่ละเอียดอ่อน”

ในขณะที่บทบัญญัติดังกล่าวในคำสั่งอาจทำให้ธุรกิจ “ไม่มีความสุข” Sarah Cameron ผู้อำนวยการด้านกฎหมายด้านเทคโนโลยีของสำนักงานกฎหมาย Pinsent Masons กล่าวว่ากฎดังกล่าวช่วยชี้แจงความรับผิดต่อผลิตภัณฑ์ที่เปิดใช้งาน AI สำหรับผู้บริโภคและธุรกิจ

“อุปสรรคสำคัญต่อธุรกิจต่างๆ ที่นำ AI มาใช้คือความซับซ้อน ความเป็นอิสระ และความทึบ (ที่เรียกว่าเอฟเฟกต์กล่องดำ) ของ AI ทำให้เกิดความไม่แน่นอนเกี่ยวกับการสร้างความรับผิดและใครเป็นผู้รับผิดชอบ” เธอกล่าว

“ข้อเสนอจะทำให้แน่ใจว่าเมื่อระบบ AI บกพร่องและทำให้เกิดความเสียหายทางกายภาพหรือข้อมูลสูญหาย เป็นไปได้ที่จะขอค่าชดเชยจากผู้ให้บริการระบบ AI หรือจากผู้ผลิตรายใดก็ตามที่รวมระบบ AI เข้ากับผลิตภัณฑ์อื่น”

หัวข้อที่เกี่ยวข้อง