ภาพหลอนปัญญาประดิษฐ์ (AI) ฟังดูน่างง คุณอาจกำลังคิดว่า 'อาการประสาทหลอนเป็นปรากฏการณ์ของมนุษย์ไม่ใช่หรือ' ใช่ มันเคยเป็นปรากฏการณ์ที่เกิดจากมนุษย์เพียงอย่างเดียว จนกระทั่ง AI เริ่มแสดงลักษณะเฉพาะของมนุษย์ เช่น การจดจำใบหน้า การเรียนรู้ด้วยตนเอง และการจดจำเสียงพูด
สร้างวิดีโอประจำวัน เลื่อนเพื่อดำเนินการต่อกับเนื้อหา
น่าเสียดายที่ AI มีลักษณะเชิงลบบางประการ ซึ่งรวมถึงอาการประสาทหลอน ดังนั้น อาการประสาทหลอนของ AI คล้ายกับอาการประสาทหลอนที่มนุษย์ประสบหรือไม่?
AI ภาพหลอนคืออะไร?
อาการประสาทหลอนทางปัญญาประดิษฐ์เกิดขึ้นเมื่อแบบจำลอง AI สร้างผลลัพธ์ที่แตกต่างจากที่คาดไว้ โปรดทราบว่า AI บางรุ่นได้รับการฝึกฝนให้สร้างผลลัพธ์โดยไม่เกี่ยวข้องกับอินพุต (ข้อมูล) ในโลกแห่งความเป็นจริงโดยเจตนา
ตัวอย่างเช่น, ตัวสร้างข้อความเป็นศิลปะ AI อันดับต้น ๆ เช่น DALL-E 2 สามารถสร้างภาพที่แปลกใหม่อย่างสร้างสรรค์ ซึ่งเราสามารถแท็กว่า 'ภาพหลอน' ได้ เนื่องจากภาพเหล่านั้นไม่ได้อิงจากข้อมูลในโลกแห่งความเป็นจริง
ภาพหลอนของ AI ในโมเดลการประมวลผลภาษาขนาดใหญ่
ลองพิจารณาว่าภาพหลอนของ AI จะมีลักษณะอย่างไรในโมเดลการประมวลผลภาษาขนาดใหญ่ เช่น ChatGPT ภาพหลอนของ ChatGPT จะส่งผลให้บอทให้ข้อเท็จจริงที่ไม่ถูกต้องแก่คุณด้วยการยืนยันบางอย่าง เช่นนั้นคุณจะถือว่าข้อเท็จจริงดังกล่าวเป็นความจริงโดยธรรมชาติ
พูดง่ายๆ ก็คือ ข้อความนี้สร้างขึ้นโดยแชทบ็อตอัจฉริยะที่ประดิษฐ์ขึ้นเอง นี่คือตัวอย่าง:
จากการสืบค้นเพิ่มเติม ChatGPT ปรากฏขึ้นพร้อมกับสิ่งนี้:
ภาพหลอน AI ในการมองเห็นคอมพิวเตอร์
ลองพิจารณาอีกด้านของ AI ที่สามารถสัมผัสกับภาพหลอนของ AI: วิสัยทัศน์คอมพิวเตอร์ . แบบทดสอบด้านล่างแสดงภาพตัดต่อขนาด 4x4 ที่มีสองสิ่งที่เหมือนกันมาก ภาพเป็นส่วนผสมของมันฝรั่งทอดบาร์บีคิวและใบไม้
ความท้าทายคือการเลือกมันฝรั่งทอดโดยไม่ต้องตีใบใด ๆ ในการตัดต่อ ภาพนี้อาจดูยุ่งยากสำหรับคอมพิวเตอร์ และอาจไม่สามารถแยกความแตกต่างระหว่างมันฝรั่งทอดกรอบกับใบไม้ได้
นี่คือภาพตัดต่ออีกชุดที่มีภาพพุดเดิ้ลและขนมปังหยองหมูผสมกัน คอมพิวเตอร์มักจะไม่สามารถแยกความแตกต่างระหว่างกันได้ ดังนั้น จึงผสมภาพเข้าด้วยกัน
ทำไม AI Hallucination จึงเกิดขึ้น?
อาการประสาทหลอนของ AI อาจเกิดขึ้นได้จากตัวอย่างที่เป็นปฏิปักษ์—ป้อนข้อมูลที่หลอกให้แอปพลิเคชัน AI จัดประเภทผิด ตัวอย่างเช่น เมื่อฝึกแอปพลิเคชัน AI นักพัฒนาจะใช้ข้อมูล (รูปภาพ ข้อความ หรืออื่นๆ) หากข้อมูลมีการเปลี่ยนแปลงหรือบิดเบี้ยว แอปพลิเคชันจะแปลความหมายอินพุตแตกต่างออกไป ทำให้ได้เอาต์พุตที่ไม่ถูกต้อง
ในทางตรงกันข้าม มนุษย์ยังสามารถจดจำและระบุข้อมูลได้อย่างแม่นยำแม้ว่าจะมีการบิดเบือนก็ตาม เราสามารถแท็กสิ่งนี้ว่าเป็นสามัญสำนึก—คุณลักษณะของมนุษย์ที่ AI ยังไม่มี ดูวิธีที่ AI ถูกหลอกด้วยตัวอย่างฝ่ายตรงข้ามในวิดีโอนี้:
เกี่ยวกับโมเดลที่ใช้ภาษาขนาดใหญ่ เช่น ChatGPT และทางเลือกอื่น , ภาพหลอนอาจเกิดขึ้นจากการถอดรหัสที่ไม่ถูกต้องจากหม้อแปลง (โมเดลการเรียนรู้ของเครื่อง)
ใน AI ทรานส์ฟอร์มเมอร์คือโมเดลการเรียนรู้เชิงลึกที่ใช้ความสนใจในตนเอง (ความสัมพันธ์เชิงความหมายระหว่างคำในประโยค) เพื่อสร้างข้อความที่คล้ายกับสิ่งที่มนุษย์จะเขียนโดยใช้ลำดับตัวเข้ารหัส-ตัวถอดรหัส (อินพุต-เอาต์พุต)
ดังนั้น Transformers ซึ่งเป็นโมเดลแมชชีนเลิร์นนิงกึ่งควบคุม จึงสามารถสร้างข้อความใหม่ (เอาต์พุต) จากคลังข้อมูลข้อความขนาดใหญ่ที่ใช้ในการฝึกอบรม (อินพุต) ทำได้โดยการทำนายคำถัดไปในชุดตามคำก่อนหน้า
เกี่ยวกับประสาทหลอน หากแบบจำลองภาษาได้รับการฝึกอบรมเกี่ยวกับข้อมูลและทรัพยากรไม่เพียงพอและไม่ถูกต้อง คาดว่าผลลัพธ์จะถูกสร้างขึ้นและไม่ถูกต้อง รูปแบบภาษาอาจสร้างเรื่องราวหรือการเล่าเรื่องโดยไม่มีความไม่สอดคล้องกันทางตรรกะหรือความเชื่อมโยงที่ไม่ชัดเจน
ในตัวอย่างด้านล่าง ChatGPT ถูกขอให้แสดงคำที่คล้ายกับ 'revolt' และขึ้นต้นด้วย 'b' นี่คือคำตอบ:
แอพเพื่อดูว่าใครบล็อกคุณใน fb
ในการซักถามเพิ่มเติม มันยังคงให้คำตอบผิดๆ ด้วยความมั่นใจระดับสูง
เหตุใด ChatGPT จึงไม่สามารถให้คำตอบที่ถูกต้องสำหรับข้อความแจ้งเหล่านี้ได้
อาจเป็นไปได้ว่ารูปแบบภาษาไม่พร้อมสำหรับจัดการกับข้อความแจ้งที่ค่อนข้างซับซ้อนเช่นนี้ หรือไม่สามารถตีความข้อความแจ้งได้อย่างถูกต้อง โดยไม่สนใจข้อความแจ้งที่ให้คำที่คล้ายกันพร้อมตัวอักษรเฉพาะ
คุณมองเห็นภาพหลอนของ AI ได้อย่างไร?
เห็นได้ชัดว่าตอนนี้แอปพลิเคชั่น AI มีศักยภาพในการทำให้เกิดภาพหลอน—สร้างการตอบสนองอย่างอื่นจากผลลัพธ์ที่คาดหวัง (ข้อเท็จจริงหรือความจริง) โดยไม่มีเจตนาร้าย และการตรวจจับและจดจำภาพหลอนของ AI นั้นขึ้นอยู่กับผู้ใช้แอปพลิเคชันดังกล่าว
ต่อไปนี้คือวิธีสังเกตอาการประสาทหลอนของ AI ขณะใช้แอปพลิเคชัน AI ทั่วไป:
1. โมเดลการประมวลผลภาษาขนาดใหญ่
แม้ว่าจะพบได้ยาก แต่ถ้าคุณสังเกตเห็นข้อผิดพลาดทางไวยากรณ์ในเนื้อหาที่สร้างโดยรูปแบบการประมวลผลขนาดใหญ่ เช่น ChatGPT คุณควรเลิกคิ้วและสงสัยว่าเป็นภาพหลอน ในทำนองเดียวกัน เมื่อเนื้อหาที่สร้างด้วยข้อความฟังดูไม่สมเหตุสมผล ไม่สัมพันธ์กับบริบทที่กำหนด หรือตรงกับข้อมูลที่ป้อนเข้า คุณควรสงสัยว่าเป็นภาพหลอน
การใช้วิจารณญาณของมนุษย์หรือสามัญสำนึกสามารถช่วยตรวจจับภาพหลอนได้ เนื่องจากมนุษย์สามารถระบุได้อย่างง่ายดายเมื่อข้อความไม่สมเหตุสมผลหรือเป็นไปตามความเป็นจริง
2. คอมพิวเตอร์วิทัศน์
ในฐานะที่เป็นสาขาหนึ่งของปัญญาประดิษฐ์ แมชชีนเลิร์นนิง และวิทยาการคอมพิวเตอร์ คอมพิวเตอร์วิทัศน์ช่วยให้คอมพิวเตอร์สามารถจดจำและประมวลผลภาพได้เหมือนกับดวงตาของมนุษย์ โดยใช้ โครงข่ายประสาทเทียม พวกเขาพึ่งพาข้อมูลภาพจำนวนมหาศาลที่ใช้ในการฝึกอบรม
การเบี่ยงเบนจากรูปแบบของข้อมูลภาพที่ใช้ในการฝึกจะส่งผลให้เกิดอาการประสาทหลอน ตัวอย่างเช่น หากคอมพิวเตอร์ไม่ได้รับการฝึกให้แสดงภาพลูกเทนนิส คอมพิวเตอร์ก็สามารถระบุได้ว่าเป็นสีเขียวส้ม หรือหากคอมพิวเตอร์จำม้าที่อยู่ข้างรูปปั้นมนุษย์ว่าเป็นม้าที่อยู่ข้างๆ คนจริงๆ ก็จะเกิดภาพหลอนของ AI ขึ้น
ดังนั้น หากต้องการมองเห็นภาพหลอนจากการมองเห็นด้วยคอมพิวเตอร์ ให้เปรียบเทียบผลลัพธ์ที่สร้างขึ้นกับสิ่งที่มนุษย์ [ปกติ] คาดว่าจะเห็น
3. รถยนต์ขับเคลื่อนด้วยตนเอง
ต้องขอบคุณ AI รถยนต์ไร้คนขับค่อยๆ แทรกซึมเข้าสู่ตลาดรถยนต์ ผู้บุกเบิกเช่น Tesla Autopilot และ BlueCruise ของ Ford ได้สนับสนุนฉากของรถยนต์ที่ขับเคลื่อนด้วยตนเอง คุณสามารถตรวจสอบ อย่างไรและสิ่งที่ Tesla Autopilot เห็น เพื่อทำความเข้าใจเล็กน้อยว่า AI ขับเคลื่อนรถยนต์ไร้คนขับได้อย่างไร
หากคุณเป็นเจ้าของรถประเภทนี้สักคัน คุณคงอยากรู้ว่ารถ AI ของคุณมีอาการประสาทหลอนหรือไม่ สัญญาณหนึ่งจะเกิดขึ้นหากรถของคุณดูเหมือนจะเบี่ยงเบนไปจากรูปแบบพฤติกรรมปกติในขณะขับขี่ ตัวอย่างเช่น หากรถเบรกหรือหักเลี้ยวอย่างกะทันหันโดยไม่มีเหตุผลที่ชัดเจน ยานพาหนะ AI ของคุณอาจมีอาการประสาทหลอน
ระบบ AI สามารถทำให้เกิดภาพหลอนได้เช่นกัน
มนุษย์และโมเดล AI มีประสบการณ์ประสาทหลอนต่างกัน เมื่อพูดถึง AI ภาพหลอนหมายถึงผลลัพธ์ที่ผิดพลาดซึ่งห่างจากความเป็นจริงหลายไมล์หรือไม่สมเหตุสมผลในบริบทของข้อความแจ้งที่กำหนด ตัวอย่างเช่น แชทบอท AI อาจให้การตอบสนองที่ไม่ถูกต้องตามหลักไวยากรณ์หรือตรรกะ หรือระบุวัตถุผิดพลาดเนื่องจากเสียงรบกวนหรือปัจจัยทางโครงสร้างอื่นๆ
ภาพหลอนของ AI ไม่ได้เกิดจากจิตสำนึกหรือจิตใต้สำนึกอย่างที่คุณสังเกตเห็นในมนุษย์ แต่เป็นผลจากความไม่เพียงพอหรือไม่เพียงพอของข้อมูลที่ใช้ในการฝึกอบรมและตั้งโปรแกรมระบบ AI