3 ความเสี่ยงและข้อกังวลด้านความเป็นส่วนตัวของ Chatbot ที่คุณควรรู้

3 ความเสี่ยงและข้อกังวลด้านความเป็นส่วนตัวของ Chatbot ที่คุณควรรู้
ผู้อ่านเช่นคุณช่วยสนับสนุน MUO เมื่อคุณทำการซื้อโดยใช้ลิงก์บนเว็บไซต์ของเรา เราอาจได้รับค่าคอมมิชชั่นจากพันธมิตร อ่านเพิ่มเติม.   แม่กุญแจที่มีแป้นคีย์บอร์ดกระจายอยู่ทั่ว

Chatbot มีมานานหลายปีแล้ว แต่การเพิ่มขึ้นของโมเดลภาษาขนาดใหญ่ เช่น ChatGPT และ Google Bard ทำให้อุตสาหกรรมแชทบอทมีชีวิตใหม่





ขณะนี้ผู้คนหลายล้านคนใช้แชทบอท AI ทั่วโลก แต่มีความเสี่ยงและข้อกังวลด้านความเป็นส่วนตัวที่สำคัญบางประการที่ควรคำนึงถึงหากคุณต้องการลองใช้หนึ่งในเครื่องมือเหล่านี้





1. การรวบรวมข้อมูล

คนส่วนใหญ่ไม่ใช้แชทบอทเพียงเพื่อทักทาย แชทบอทยุคใหม่ได้รับการออกแบบมาเพื่อประมวลผลและตอบคำถามและคำขอที่ซับซ้อน โดยผู้ใช้มักจะใส่ข้อมูลจำนวนมากไว้ในการแจ้งเตือน แม้ว่าคุณจะถามคำถามง่ายๆ แต่คุณคงไม่อยากให้มันไปไกลกว่าบทสนทนาของคุณ





ตาม ส่วนสนับสนุนของ OpenAI คุณสามารถลบบันทึกการแชท ChatGPT ได้ทุกเมื่อที่ต้องการ จากนั้นบันทึกเหล่านั้นจะถูกลบออกจากระบบของ OpenAI อย่างถาวรหลังจาก 30 วัน อย่างไรก็ตาม บริษัทจะเก็บรักษาและตรวจสอบบันทึกการแชทบางส่วน หากพบว่ามีเนื้อหาที่เป็นอันตรายหรือไม่เหมาะสม

Claude แชทบอท AI ยอดนิยมอีกตัวหนึ่งยังคอยติดตามการสนทนาก่อนหน้าของคุณ ศูนย์สนับสนุนมานุษยวิทยา ระบุว่า Claude ติดตาม 'ข้อความแจ้งและผลลัพธ์ของคุณในผลิตภัณฑ์เพื่อให้คุณได้รับประสบการณ์ผลิตภัณฑ์ที่สอดคล้องกันเมื่อเวลาผ่านไปตามการควบคุมของคุณ' คุณสามารถลบการสนทนาของคุณกับ Claude ได้ เพื่อให้ลืมสิ่งที่คุณกำลังพูดถึง แต่ไม่ได้หมายความว่า Anthropic จะลบบันทึกของคุณออกจากระบบทันที



แน่นอนว่าสิ่งนี้ทำให้เกิดคำถาม: ข้อมูลของฉันถูกเก็บไว้หรือไม่? ChatGPT หรือแชทบอทอื่นๆ ใช้ข้อมูลของฉันหรือไม่

แต่ความกังวลไม่ได้หยุดอยู่แค่นี้





ChatGPT เรียนรู้อย่างไร

ในการให้ข้อมูล โมเดลภาษาขนาดใหญ่ได้รับการฝึกอบรมด้วยข้อมูลจำนวนมหาศาล ตาม วิทยาศาสตร์มุ่งเน้น ChatGPT-4 เพียงอย่างเดียวได้รับข้อมูล 300 พันล้านคำในระหว่างระยะเวลาการฝึกอบรม สิ่งนี้ไม่ได้นำมาจากสารานุกรมบางฉบับโดยตรง แต่นักพัฒนาแชทบอทใช้ข้อมูลจำนวนมากจากอินเทอร์เน็ตเพื่อฝึกโมเดลของตน ซึ่งอาจรวมถึงข้อมูลจากหนังสือ ภาพยนตร์ บทความ รายการ Wikipedia บล็อกโพสต์ ความคิดเห็น และแม้แต่ไซต์บทวิจารณ์

เกม vr ฟรีที่ดีที่สุดสำหรับ Android

โปรดทราบว่า ขึ้นอยู่กับนโยบายความเป็นส่วนตัวของนักพัฒนาแชทบอท แหล่งข้อมูลที่กล่าวมาข้างต้นบางส่วนอาจไม่ถูกนำมาใช้ในการฝึกอบรม





หลายคนวิพากษ์วิจารณ์ ChatGPT โดยอ้างว่ามันเป็นฝันร้ายในแง่ของความเป็นส่วนตัว ChatGPT ไม่สามารถเชื่อถือได้ . แล้วเหตุใดจึงเป็นเช่นนี้?

นี่คือสิ่งที่จะพร่ามัวเล็กน้อย หากคุณถาม ChatGPT-3.5 โดยตรงว่ามีสิทธิ์เข้าถึงรีวิวผลิตภัณฑ์หรือความคิดเห็นในบทความ คุณจะได้รับผลลบอย่างแน่นอน ดังที่คุณเห็นในภาพหน้าจอด้านล่าง GPT-3.5 ระบุว่าไม่ได้รับสิทธิ์เข้าถึงความคิดเห็นบทความของผู้ใช้หรือบทวิจารณ์ผลิตภัณฑ์ในการฝึกอบรม

  ภาพหน้าจอของการสนทนา chatgpt-3.5

แต่ได้รับการฝึกอบรมโดยใช้ 'ข้อความที่หลากหลายจากอินเทอร์เน็ต รวมถึงเว็บไซต์ หนังสือ บทความ และเอกสารที่เป็นลายลักษณ์อักษรอื่นๆ ที่เปิดเผยต่อสาธารณะจนถึงเดือนกันยายน 2021'

แต่กรณีของ GPT-4 จะเหมือนกันหรือไม่

เมื่อเราถาม GPT-4 เราได้รับแจ้งว่า 'OpenAI ไม่ได้ใช้บทวิจารณ์ของผู้ใช้ ข้อมูลส่วนบุคคล หรือความคิดเห็นในบทความโดยเฉพาะ' ในช่วงการฝึกอบรมของแชทบอท นอกจากนี้ GPT-4 ยังบอกเราว่าการตอบสนองนั้นสร้างขึ้นจาก 'รูปแบบของข้อมูลที่ [มัน] ได้รับการฝึก ซึ่งประกอบด้วยหนังสือ บทความ และข้อความอื่นๆ จากอินเทอร์เน็ตเป็นหลัก'

เมื่อเราตรวจสอบเพิ่มเติม GPT-4 อ้างว่าเนื้อหาโซเชียลมีเดียบางอย่างอาจรวมอยู่ในข้อมูลการฝึกอบรม แต่ผู้สร้างจะไม่เปิดเผยตัวตนเสมอ GPT-4 ระบุไว้โดยเฉพาะว่า 'แม้ว่าเนื้อหาจากแพลตฟอร์มอย่าง Reddit จะเป็นส่วนหนึ่งของข้อมูลการฝึกอบรม แต่ก็ไม่สามารถเข้าถึงความคิดเห็น โพสต์ หรือข้อมูลใดๆ ที่สามารถเชื่อมโยงกลับไปยังผู้ใช้แต่ละรายได้'

ส่วนที่โดดเด่นอีกประการหนึ่งของการตอบสนองของ GPT-4 มีดังนี้ 'OpenAI ไม่ได้ระบุทุกแหล่งข้อมูลที่ใช้อย่างชัดเจน' แน่นอนว่าคงเป็นเรื่องยากสำหรับ OpenAI ที่จะแสดงรายการแหล่งที่มาที่มีมูลค่าถึง 300 พันล้านคำ แต่นี่จะทำให้มีพื้นที่ว่างสำหรับการเก็งกำไร

ฮาร์ดไดรฟ์ภายนอกไม่แสดง windows 10

ใน บทความของอาท เทคนิคิกา มีการระบุว่า ChatGPT รวบรวม 'ข้อมูลส่วนบุคคลที่ได้รับโดยไม่ได้รับความยินยอม' ในบทความเดียวกัน มีการกล่าวถึงความสมบูรณ์ของบริบท ซึ่งเป็นแนวคิดที่อ้างถึงเฉพาะข้อมูลของใครบางคนในบริบทที่ถูกใช้ในตอนแรกเท่านั้น หาก ChatGPT ละเมิดความสมบูรณ์ของบริบท ข้อมูลของผู้คนอาจตกอยู่ในความเสี่ยง

ประเด็นที่น่ากังวลอีกประการหนึ่งคือการปฏิบัติตามข้อกำหนดของ OpenAI กับ กฎระเบียบคุ้มครองข้อมูลทั่วไป (GDPR) . นี่เป็นกฎระเบียบที่บังคับใช้โดยสหภาพยุโรปเพื่อปกป้องข้อมูลของพลเมือง ประเทศต่างๆ ในยุโรป รวมถึงอิตาลีและโปแลนด์ ได้เปิดตัวการสอบสวน ChatGPT เนื่องจากข้อกังวลเกี่ยวกับการปฏิบัติตาม GDPR ในช่วงเวลาสั้นๆ ChatGPT ยังถูกแบนในอิตาลีเนื่องจากความกังวลเรื่องความเป็นส่วนตัว

OpenAI เคยขู่ที่จะถอนตัวออกจากสหภาพยุโรปในอดีตเนื่องจากกฎระเบียบด้าน AI ที่วางแผนไว้ แต่สิ่งนี้ก็ถูกเพิกถอนออกไป

ChatGPT อาจเป็นแชทบอท AI ที่ใหญ่ที่สุดในปัจจุบัน แต่ปัญหาความเป็นส่วนตัวของแชทบอทไม่ได้เริ่มต้นและสิ้นสุดที่ผู้ให้บริการรายนี้ หากคุณใช้แชทบอทที่ไม่ชัดเจนซึ่งมีนโยบายความเป็นส่วนตัวที่ขาดความดแจ่มใส การสนทนาของคุณอาจถูกนำไปใช้ในทางที่ผิด หรือข้อมูลที่ละเอียดอ่อนสูงอาจถูกนำไปใช้ในข้อมูลการฝึกอบรม

2. การโจรกรรมข้อมูล

เช่นเดียวกับเครื่องมือหรือแพลตฟอร์มออนไลน์ แชทบอทมีความเสี่ยงต่ออาชญากรรมทางไซเบอร์ แม้ว่าแชทบอตจะทำทุกอย่างที่ทำได้เพื่อปกป้องผู้ใช้และข้อมูลของพวกเขา แต่ก็มีโอกาสที่แฮกเกอร์ผู้รอบรู้จะจัดการแทรกซึมระบบภายในของตนได้เสมอ

หากบริการแชทบอทเก็บข้อมูลละเอียดอ่อนของคุณ เช่น รายละเอียดการชำระเงินสำหรับการสมัครสมาชิกระดับพรีเมียม ข้อมูลการติดต่อ หรือที่คล้ายกัน ข้อมูลดังกล่าวอาจถูกขโมยและนำไปใช้ประโยชน์ได้หากเกิดการโจมตีทางไซเบอร์

โดยเฉพาะอย่างยิ่งหากคุณใช้แชทบอทที่มีความปลอดภัยน้อยกว่าซึ่งนักพัฒนาไม่ได้ลงทุนในการป้องกันความปลอดภัยที่เพียงพอ ไม่เพียงแต่ระบบภายในของบริษัทเท่านั้นที่ถูกแฮ็ก แต่บัญชีของคุณยังมีโอกาสที่จะถูกบุกรุก หากไม่มีการแจ้งเตือนการเข้าสู่ระบบหรือชั้นการตรวจสอบสิทธิ์

ขณะนี้แชทบอท AI ได้รับความนิยมอย่างมาก อาชญากรไซเบอร์จึงแห่กันไปใช้อุตสาหกรรมนี้เพื่อการหลอกลวง เว็บไซต์และปลั๊กอิน ChatGPT ปลอมเป็นปัญหาสำคัญนับตั้งแต่แชทบอตของ OpenAI เข้าสู่กระแสหลักในช่วงปลายปี 2022 โดยผู้คนตกเป็นเหยื่อกลโกงและให้ข้อมูลส่วนบุคคลภายใต้หน้ากากของความชอบธรรมและความไว้วางใจ

ในเดือนมีนาคม พ.ศ. 2566 MUO รายงานเกี่ยวกับ ส่วนขยาย ChatGPT Chrome ปลอมขโมยการเข้าสู่ระบบ Facebook . ปลั๊กอินสามารถใช้ประโยชน์จากแบ็คดอร์ของ Facebook เพื่อแฮ็กบัญชีที่มีโปรไฟล์สูงและขโมยคุกกี้ของผู้ใช้ นี่เป็นเพียงตัวอย่างหนึ่งของบริการ ChatGPT ปลอมจำนวนมากที่ออกแบบมาเพื่อหลอกเหยื่อโดยไม่รู้ตัว

3. การติดเชื้อมัลแวร์

หากคุณใช้แชทบอทที่ไม่คุ้นเคยโดยไม่รู้ตัว คุณอาจพบว่าแชทบอทมีลิงก์ไปยังเว็บไซต์ที่เป็นอันตราย บางทีแชทบอตอาจแจ้งเตือนคุณเกี่ยวกับการแจกของรางวัลที่น่าดึงดูด หรือให้แหล่งที่มาสำหรับข้อความใดข้อความหนึ่ง หากผู้ให้บริการมีเจตนาที่ผิดกฎหมาย จุดรวมของแพลตฟอร์มอาจเป็นการแพร่กระจายมัลแวร์และการหลอกลวงผ่านลิงก์ที่เป็นอันตราย

แฮกเกอร์อาจประนีประนอมบริการแชทบอทที่ถูกกฎหมายและใช้เพื่อแพร่กระจายมัลแวร์ หากแชทบอตนี้มีผู้คนจำนวนมาก ผู้ใช้หลายพันหรือหลายล้านคนก็จะได้รับความเสี่ยงจากมัลแวร์นี้ แอป ChatGPT ปลอมยังมีอยู่ใน Apple App Store ด้วยซ้ำ ดังนั้นจึงควรเดินอย่างระมัดระวัง

โดยทั่วไป คุณไม่ควรคลิกลิงก์ใดๆ ที่แชทบอตให้มาก่อน เรียกใช้ผ่านเว็บไซต์ตรวจสอบลิงก์ . สิ่งนี้อาจดูน่ารำคาญ แต่วิธีที่ดีที่สุดคือต้องแน่ใจว่าไซต์ที่คุณกำลังถูกพาไปไม่มีการออกแบบที่เป็นอันตราย

นอกจากนี้ คุณไม่ควรติดตั้งปลั๊กอินและส่วนขยายแชทบอทใด ๆ โดยไม่ตรวจสอบความถูกต้องก่อน ค้นคว้าข้อมูลเล็กๆ น้อยๆ เกี่ยวกับแอปเพื่อดูว่าได้รับการตรวจสอบมาอย่างดีแล้วหรือยัง และทำการค้นหานักพัฒนาแอปเพื่อดูว่าคุณพบสิ่งลึกลับหรือไม่

Chatbots ไม่สามารถหลีกเลี่ยงปัญหาความเป็นส่วนตัวได้

เช่นเดียวกับเครื่องมือออนไลน์ส่วนใหญ่ในปัจจุบัน แชทบอทถูกวิพากษ์วิจารณ์ซ้ำแล้วซ้ำเล่าถึงข้อผิดพลาดด้านความปลอดภัยและความเป็นส่วนตัวที่อาจเกิดขึ้น ไม่ว่าจะเป็นผู้ให้บริการแชทบอทที่ล้ำหน้าในเรื่องความปลอดภัยของผู้ใช้ หรือความเสี่ยงอย่างต่อเนื่องของการโจมตีทางไซเบอร์และการหลอกลวง สิ่งสำคัญคือคุณต้องรู้ว่าบริการแชทบอทของคุณรวบรวมอะไรจากคุณ และไม่ว่าจะใช้มาตรการรักษาความปลอดภัยที่เพียงพอหรือไม่