การเรียนรู้ของเครื่องผิดพลาด 7 ครั้ง

การเรียนรู้ของเครื่องผิดพลาด 7 ครั้ง
ผู้อ่านเช่นคุณช่วยสนับสนุน MUO เมื่อคุณทำการซื้อโดยใช้ลิงก์บนเว็บไซต์ของเรา เราอาจได้รับค่าคอมมิชชั่นจากพันธมิตร อ่านเพิ่มเติม.

แมชชีนเลิร์นนิงเป็นวิธีที่ยอดเยี่ยมในการสร้างปัญญาประดิษฐ์ที่มีประสิทธิภาพและปรับให้เข้ากับข้อมูลการฝึกอบรม แต่บางครั้งข้อมูลนั้นอาจทำให้เกิดปัญหาได้ ในบางครั้ง วิธีที่ผู้คนใช้เครื่องมือ AI เหล่านี้คือปัญหา





ต่อไปนี้คือเหตุการณ์สำคัญบางส่วนที่การเรียนรู้ของเครื่องทำให้เกิดผลลัพธ์ที่เป็นปัญหา





สร้างวิดีโอประจำวัน เลื่อนเพื่อดำเนินการต่อกับเนื้อหา

1. อุบัติเหตุผลการค้นหารูปภาพของ Google

  google-image-search-results-controversies

Google Search ทำให้การท่องเว็บง่ายขึ้นมาก อัลกอริทึมของเครื่องยนต์คำนึงถึงสิ่งต่างๆ มากมายเมื่อปั่นป่วนผลลัพธ์ แต่อัลกอริทึมยังเรียนรู้จากการเข้าชมของผู้ใช้ ซึ่งอาจทำให้เกิดปัญหากับคุณภาพของผลการค้นหา





ไม่มีที่ไหนที่จะชัดเจนมากไปกว่าผลลัพธ์ที่เป็นรูปภาพ เนื่องจากหน้าที่ได้รับการเข้าชมสูงมักจะแสดงรูปภาพของพวกเขา เรื่องราวที่ดึงดูดผู้ใช้จำนวนมาก รวมถึงคลิกเบตจึงได้รับการจัดลำดับความสำคัญ

ตัวอย่างเช่น ผลการค้นหารูปภาพสำหรับ 'ค่ายผู้บุกรุกในแอฟริกาใต้' ทำให้เกิดความขัดแย้งเมื่อพบว่ามีชาวแอฟริกาใต้ผิวขาวเด่นกว่า แม้จะมีสถิติแสดงว่าคนส่วนใหญ่ที่อาศัยอยู่ในที่อยู่อาศัยนอกระบบเป็นชาวแอฟริกาใต้ผิวดำ



รหัสหยุด windows wea_uncorrectable_error

ปัจจัยที่ใช้ในอัลกอริทึมของ Google ยังหมายความว่าผู้ใช้อินเทอร์เน็ตสามารถปรับเปลี่ยนผลลัพธ์ได้ ตัวอย่างเช่น แคมเปญของผู้ใช้มีอิทธิพลต่อผลการค้นหารูปภาพของ Google ถึงขนาดที่การค้นหาคำว่า 'คนงี่เง่า' แสดงรูปภาพของอดีตประธานาธิบดีสหรัฐฯ โดนัลด์ ทรัมป์ในช่วงเวลาหนึ่ง

2. Microsoft Bot Tay กลายเป็นนาซี





แชทบอทที่ขับเคลื่อนด้วย AI เป็นที่นิยมอย่างมาก โดยเฉพาะที่ขับเคลื่อนโดยโมเดลภาษาขนาดใหญ่ เช่น ChatGPT ChatGPT มีปัญหาหลายประการ แต่ผู้สร้างก็ได้เรียนรู้จากความผิดพลาดของบริษัทอื่นเช่นกัน

หนึ่งในเหตุการณ์ที่โด่งดังที่สุดของแชทบอทที่ผิดพลาดคือความพยายามของ Microsoft ในการเปิดตัวแชทบอท Tay





Tay เลียนแบบรูปแบบภาษาของเด็กสาววัยรุ่นและเรียนรู้ผ่านการโต้ตอบของเธอกับผู้ใช้ Twitter คนอื่นๆ อย่างไรก็ตาม เธอกลายเป็นหนึ่งในการก้าวพลาดของ AI ที่น่าอับอายที่สุด เมื่อเธอเริ่มแชร์ถ้อยแถลงของนาซีและคำเหยียดหยามทางเชื้อชาติ ปรากฎว่าโทรลใช้การเรียนรู้ของเครื่อง AI ต่อต้านมัน ทำให้มันท่วมท้นไปด้วยปฏิสัมพันธ์ที่เต็มไปด้วยความคลั่งไคล้

หลังจากนั้นไม่นาน Microsoft ก็เลิกใช้ Tay ตลอดไป

3. ปัญหาการจดจำใบหน้าของ AI

AI การจดจำใบหน้ามักจะพาดหัวข่าวด้วยเหตุผลที่ไม่ถูกต้อง เช่น เรื่องราวเกี่ยวกับการจดจำใบหน้าและข้อกังวลด้านความเป็นส่วนตัว แต่ AI นี้มีประวัติที่มีปัญหาเมื่อพยายามจดจำคนผิวสี

ในปี 2558 ผู้ใช้พบว่า Google Photos จัดหมวดหมู่คนผิวดำบางคนว่าเป็นกอริลล่า ในปี 2018 การวิจัยโดย ACLU แสดงให้เห็นว่าซอฟต์แวร์การระบุใบหน้า Rekognition ของ Amazon ระบุว่าสมาชิกสภาคองเกรสแห่งสหรัฐอเมริกา 28 คนเป็นผู้ต้องสงสัยตำรวจ โดยผลบวกลวงส่งผลกระทบต่อคนผิวสีอย่างไม่สมส่วน

อีกเหตุการณ์หนึ่งที่เกี่ยวข้องกับซอฟต์แวร์ Face ID ของ Apple ระบุผู้หญิงจีนสองคนที่ต่างกันเป็นบุคคลเดียวกันอย่างไม่ถูกต้อง เป็นผลให้เพื่อนร่วมงานของเจ้าของ iPhone X สามารถปลดล็อกโทรศัพท์ได้

ในตัวอย่างของผลที่ตามมาอย่างร้ายแรง AI การจดจำใบหน้าได้นำไปสู่การจับกุมคนหลายคนโดยมิชอบ มีสาย รายงานในสามกรณีดังกล่าว

ในขณะเดียวกัน นักวิทยาศาสตร์คอมพิวเตอร์ Joy Buolamwini เล่าว่าบ่อยครั้งที่ต้องสวมหน้ากากสีขาวในขณะที่ใช้เทคโนโลยีการจดจำใบหน้าเพื่อให้ซอฟต์แวร์จดจำเธอได้ เพื่อแก้ปัญหาเช่นนี้ Buolamwini และผู้เชี่ยวชาญด้านไอทีอื่นๆ กำลังให้ความสนใจกับปัญหาอคติของ AI และความต้องการชุดข้อมูลที่ครอบคลุมมากขึ้น

4. Deepfakes ที่ใช้สำหรับการหลอกลวง

ในขณะที่ผู้คนใช้ Photoshop เพื่อสร้างภาพลวงตามานานแล้ว การเรียนรู้ของเครื่องจะยกระดับสิ่งนี้ไปอีกขั้น Deepfakes ใช้ AI การเรียนรู้เชิงลึกเพื่อสร้างภาพและวิดีโอปลอม . ซอฟต์แวร์เช่น FaceApp ช่วยให้คุณสามารถสลับใบหน้าของวัตถุจากวิดีโอหนึ่งไปยังอีกวิดีโอหนึ่งได้

แต่หลายคนใช้ประโยชน์จากซอฟต์แวร์นี้เพื่อวัตถุประสงค์ที่เป็นอันตรายต่างๆ รวมถึงการซ้อนทับใบหน้าคนดังในวิดีโอสำหรับผู้ใหญ่หรือสร้างวิดีโอหลอกลวง ในขณะเดียวกัน ผู้ใช้อินเทอร์เน็ตได้ช่วยปรับปรุงเทคโนโลยีเพื่อทำให้การแยกแยะวิดีโอจริงกับวิดีโอปลอมทำได้ยากขึ้น ด้วยเหตุนี้จึงทำให้ AI ประเภทนี้มีประสิทธิภาพมากในแง่ของการแพร่กระจายข่าวปลอมและการหลอกลวง

เพื่อเป็นการอวดพลังของเทคโนโลยี ผู้กำกับ Jordan Peele และ CEO ของ BuzzFeed Jonah Peretti ได้สร้างวิดีโอของปลอมที่แสดงให้เห็นว่าอดีตประธานาธิบดีบารัค โอบามาของสหรัฐฯ กำลังส่ง PSA เกี่ยวกับพลังของของปลอม

พลังของภาพปลอมได้รับการเร่งโดยเครื่องกำเนิดภาพที่ขับเคลื่อนโดย AI โพสต์ไวรัลในปี 2023 เป็นภาพโดนัลด์ ทรัมป์ถูกจับกุมและพระสันตปาปาคาทอลิกในชุดปักเป้ากลายเป็นผลจาก AI กำเนิด

มี เคล็ดลับที่คุณสามารถปฏิบัติตามเพื่อระบุรูปภาพที่สร้างโดย AI แต่เทคโนโลยีมีความซับซ้อนมากขึ้นเรื่อยๆ

5. พนักงานบอกว่า AI ของ Amazon ตัดสินใจจ้างผู้ชายดีกว่า

ในเดือนตุลาคม 2561 สำนักข่าวรอยเตอร์ รายงานว่า Amazon ต้องทิ้งเครื่องมือจัดหางานหลังจากที่ AI ของซอฟต์แวร์ตัดสินใจว่าผู้สมัครชายจะได้รับสิทธิพิเศษ

พนักงานที่ประสงค์จะไม่เปิดเผยตัวตนออกมาบอกรอยเตอร์เกี่ยวกับงานของพวกเขาในโครงการ นักพัฒนาต้องการให้ AI ระบุผู้สมัครที่ดีที่สุดสำหรับงานตามประวัติส่วนตัวของพวกเขา อย่างไรก็ตาม ในไม่ช้าผู้ที่เกี่ยวข้องในโครงการก็สังเกตเห็นว่า AI ลงโทษผู้สมัครหญิง พวกเขาอธิบายว่า AI ใช้ CV จากทศวรรษที่ผ่านมา ซึ่งส่วนใหญ่มาจากผู้ชาย เป็นชุดข้อมูลการฝึกอบรม

ฟังก์ชั่นในการเขียนโปรแกรมคืออะไร

ด้วยเหตุนี้ AI จึงเริ่มกรองประวัติย่อตามคำหลัก 'ผู้หญิง' คำหลักปรากฏในประวัติย่อภายใต้กิจกรรมเช่น 'กัปตันชมรมหมากรุกหญิง' ในขณะที่นักพัฒนาแก้ไข AI เพื่อป้องกันการลงโทษ CV ของผู้หญิง ในที่สุด Amazon ก็ล้มเลิกโครงการ

6. Chatbot ที่เจลเบรคแล้ว

ในขณะที่แชทบ็อตรุ่นใหม่มีข้อจำกัดในการป้องกันไม่ให้พวกเขาให้คำตอบที่ขัดต่อข้อกำหนดในการให้บริการ ผู้ใช้กำลังหาวิธีเจลเบรกเครื่องมือเพื่อจัดหาเนื้อหาที่ถูกแบน

ในปี 2023 Aaron Mulgrew นักวิจัยด้านความปลอดภัยของ Forcepoint สามารถสร้างมัลแวร์ซีโร่เดย์ได้โดยใช้การแจ้งเตือนของ ChatGPT

'เพียงแค่ใช้ ChatGPT prompts และไม่ต้องเขียนโค้ดใดๆ เราก็สามารถสร้างการโจมตีขั้นสูงในเวลาเพียงไม่กี่ชั่วโมง' Mulgrew กล่าวใน กระทู้บังคับ .

มีรายงานว่าผู้ใช้ยังสามารถรับแชทบอทเพื่อให้คำแนะนำเกี่ยวกับวิธีสร้างระเบิดหรือขโมยรถ

7. รถชนกันเอง

ความกระตือรือร้นในยานยนต์ไร้คนขับถูกลดทอนลงจากช่วงโฆษณาในช่วงแรก เนื่องจากความผิดพลาดที่เกิดจาก AI ที่ขับเคลื่อนด้วยตัวเอง ในปี 2565 เดอะวอชิงตันโพสต์ รายงานว่าในช่วงเวลาประมาณหนึ่งปี มีการรายงานการชน 392 ครั้งที่เกี่ยวข้องกับระบบช่วยเหลือผู้ขับขี่ขั้นสูงไปยังสำนักงานความปลอดภัยการจราจรบนทางหลวงแห่งชาติของสหรัฐอเมริกา

การชนเหล่านี้รวมถึงการบาดเจ็บสาหัสและผู้เสียชีวิต 6 ราย

แม้ว่าสิ่งนี้ไม่ได้ทำให้บริษัทต่างๆ เช่น เทสลาเลิกใช้รถยนต์ไร้คนขับโดยสิ้นเชิง แต่ก็สร้างความกังวลเกี่ยวกับอุบัติเหตุที่เพิ่มขึ้น เนื่องจากมีรถยนต์ที่มีซอฟต์แวร์ไร้คนขับจำนวนมากขึ้นบนท้องถนน

การเรียนรู้ของเครื่อง AI ไม่สามารถเข้าใจผิดได้

แม้ว่าแมชชีนเลิร์นนิงสามารถสร้างเครื่องมือ AI อันทรงพลังได้ แต่เครื่องมือเหล่านี้ก็ไม่รอดพ้นจากข้อมูลที่ไม่ดีหรือการดัดแปลงโดยมนุษย์ ไม่ว่าจะเป็นเพราะข้อมูลการฝึกอบรมที่มีข้อบกพร่อง ข้อจำกัดของเทคโนโลยี AI หรือการใช้งานโดยผู้ไม่หวังดี AI ประเภทนี้ส่งผลให้เกิดเหตุการณ์เชิงลบมากมาย