Chatbot มีมานานหลายปีแล้ว แต่การเพิ่มขึ้นของโมเดลภาษาขนาดใหญ่ เช่น ChatGPT และ Google Bard ทำให้อุตสาหกรรมแชทบอทมีชีวิตใหม่
ขณะนี้ผู้คนหลายล้านคนใช้แชทบอท AI ทั่วโลก แต่มีความเสี่ยงและข้อกังวลด้านความเป็นส่วนตัวที่สำคัญบางประการที่ควรคำนึงถึงหากคุณต้องการลองใช้หนึ่งในเครื่องมือเหล่านี้
1. การรวบรวมข้อมูล
คนส่วนใหญ่ไม่ใช้แชทบอทเพียงเพื่อทักทาย แชทบอทยุคใหม่ได้รับการออกแบบมาเพื่อประมวลผลและตอบคำถามและคำขอที่ซับซ้อน โดยผู้ใช้มักจะใส่ข้อมูลจำนวนมากไว้ในการแจ้งเตือน แม้ว่าคุณจะถามคำถามง่ายๆ แต่คุณคงไม่อยากให้มันไปไกลกว่าบทสนทนาของคุณ
ตาม ส่วนสนับสนุนของ OpenAI คุณสามารถลบบันทึกการแชท ChatGPT ได้ทุกเมื่อที่ต้องการ จากนั้นบันทึกเหล่านั้นจะถูกลบออกจากระบบของ OpenAI อย่างถาวรหลังจาก 30 วัน อย่างไรก็ตาม บริษัทจะเก็บรักษาและตรวจสอบบันทึกการแชทบางส่วน หากพบว่ามีเนื้อหาที่เป็นอันตรายหรือไม่เหมาะสม
Claude แชทบอท AI ยอดนิยมอีกตัวหนึ่งยังคอยติดตามการสนทนาก่อนหน้าของคุณ ศูนย์สนับสนุนมานุษยวิทยา ระบุว่า Claude ติดตาม 'ข้อความแจ้งและผลลัพธ์ของคุณในผลิตภัณฑ์เพื่อให้คุณได้รับประสบการณ์ผลิตภัณฑ์ที่สอดคล้องกันเมื่อเวลาผ่านไปตามการควบคุมของคุณ' คุณสามารถลบการสนทนาของคุณกับ Claude ได้ เพื่อให้ลืมสิ่งที่คุณกำลังพูดถึง แต่ไม่ได้หมายความว่า Anthropic จะลบบันทึกของคุณออกจากระบบทันที
แน่นอนว่าสิ่งนี้ทำให้เกิดคำถาม: ข้อมูลของฉันถูกเก็บไว้หรือไม่? ChatGPT หรือแชทบอทอื่นๆ ใช้ข้อมูลของฉันหรือไม่
แต่ความกังวลไม่ได้หยุดอยู่แค่นี้
ChatGPT เรียนรู้อย่างไร
ในการให้ข้อมูล โมเดลภาษาขนาดใหญ่ได้รับการฝึกอบรมด้วยข้อมูลจำนวนมหาศาล ตาม วิทยาศาสตร์มุ่งเน้น ChatGPT-4 เพียงอย่างเดียวได้รับข้อมูล 300 พันล้านคำในระหว่างระยะเวลาการฝึกอบรม สิ่งนี้ไม่ได้นำมาจากสารานุกรมบางฉบับโดยตรง แต่นักพัฒนาแชทบอทใช้ข้อมูลจำนวนมากจากอินเทอร์เน็ตเพื่อฝึกโมเดลของตน ซึ่งอาจรวมถึงข้อมูลจากหนังสือ ภาพยนตร์ บทความ รายการ Wikipedia บล็อกโพสต์ ความคิดเห็น และแม้แต่ไซต์บทวิจารณ์
เกม vr ฟรีที่ดีที่สุดสำหรับ Android
โปรดทราบว่า ขึ้นอยู่กับนโยบายความเป็นส่วนตัวของนักพัฒนาแชทบอท แหล่งข้อมูลที่กล่าวมาข้างต้นบางส่วนอาจไม่ถูกนำมาใช้ในการฝึกอบรม
หลายคนวิพากษ์วิจารณ์ ChatGPT โดยอ้างว่ามันเป็นฝันร้ายในแง่ของความเป็นส่วนตัว ChatGPT ไม่สามารถเชื่อถือได้ . แล้วเหตุใดจึงเป็นเช่นนี้?
นี่คือสิ่งที่จะพร่ามัวเล็กน้อย หากคุณถาม ChatGPT-3.5 โดยตรงว่ามีสิทธิ์เข้าถึงรีวิวผลิตภัณฑ์หรือความคิดเห็นในบทความ คุณจะได้รับผลลบอย่างแน่นอน ดังที่คุณเห็นในภาพหน้าจอด้านล่าง GPT-3.5 ระบุว่าไม่ได้รับสิทธิ์เข้าถึงความคิดเห็นบทความของผู้ใช้หรือบทวิจารณ์ผลิตภัณฑ์ในการฝึกอบรม
แต่ได้รับการฝึกอบรมโดยใช้ 'ข้อความที่หลากหลายจากอินเทอร์เน็ต รวมถึงเว็บไซต์ หนังสือ บทความ และเอกสารที่เป็นลายลักษณ์อักษรอื่นๆ ที่เปิดเผยต่อสาธารณะจนถึงเดือนกันยายน 2021'
แต่กรณีของ GPT-4 จะเหมือนกันหรือไม่
เมื่อเราถาม GPT-4 เราได้รับแจ้งว่า 'OpenAI ไม่ได้ใช้บทวิจารณ์ของผู้ใช้ ข้อมูลส่วนบุคคล หรือความคิดเห็นในบทความโดยเฉพาะ' ในช่วงการฝึกอบรมของแชทบอท นอกจากนี้ GPT-4 ยังบอกเราว่าการตอบสนองนั้นสร้างขึ้นจาก 'รูปแบบของข้อมูลที่ [มัน] ได้รับการฝึก ซึ่งประกอบด้วยหนังสือ บทความ และข้อความอื่นๆ จากอินเทอร์เน็ตเป็นหลัก'
เมื่อเราตรวจสอบเพิ่มเติม GPT-4 อ้างว่าเนื้อหาโซเชียลมีเดียบางอย่างอาจรวมอยู่ในข้อมูลการฝึกอบรม แต่ผู้สร้างจะไม่เปิดเผยตัวตนเสมอ GPT-4 ระบุไว้โดยเฉพาะว่า 'แม้ว่าเนื้อหาจากแพลตฟอร์มอย่าง Reddit จะเป็นส่วนหนึ่งของข้อมูลการฝึกอบรม แต่ก็ไม่สามารถเข้าถึงความคิดเห็น โพสต์ หรือข้อมูลใดๆ ที่สามารถเชื่อมโยงกลับไปยังผู้ใช้แต่ละรายได้'
ส่วนที่โดดเด่นอีกประการหนึ่งของการตอบสนองของ GPT-4 มีดังนี้ 'OpenAI ไม่ได้ระบุทุกแหล่งข้อมูลที่ใช้อย่างชัดเจน' แน่นอนว่าคงเป็นเรื่องยากสำหรับ OpenAI ที่จะแสดงรายการแหล่งที่มาที่มีมูลค่าถึง 300 พันล้านคำ แต่นี่จะทำให้มีพื้นที่ว่างสำหรับการเก็งกำไร
ฮาร์ดไดรฟ์ภายนอกไม่แสดง windows 10
ใน บทความของอาท เทคนิคิกา มีการระบุว่า ChatGPT รวบรวม 'ข้อมูลส่วนบุคคลที่ได้รับโดยไม่ได้รับความยินยอม' ในบทความเดียวกัน มีการกล่าวถึงความสมบูรณ์ของบริบท ซึ่งเป็นแนวคิดที่อ้างถึงเฉพาะข้อมูลของใครบางคนในบริบทที่ถูกใช้ในตอนแรกเท่านั้น หาก ChatGPT ละเมิดความสมบูรณ์ของบริบท ข้อมูลของผู้คนอาจตกอยู่ในความเสี่ยง
ประเด็นที่น่ากังวลอีกประการหนึ่งคือการปฏิบัติตามข้อกำหนดของ OpenAI กับ กฎระเบียบคุ้มครองข้อมูลทั่วไป (GDPR) . นี่เป็นกฎระเบียบที่บังคับใช้โดยสหภาพยุโรปเพื่อปกป้องข้อมูลของพลเมือง ประเทศต่างๆ ในยุโรป รวมถึงอิตาลีและโปแลนด์ ได้เปิดตัวการสอบสวน ChatGPT เนื่องจากข้อกังวลเกี่ยวกับการปฏิบัติตาม GDPR ในช่วงเวลาสั้นๆ ChatGPT ยังถูกแบนในอิตาลีเนื่องจากความกังวลเรื่องความเป็นส่วนตัว
OpenAI เคยขู่ที่จะถอนตัวออกจากสหภาพยุโรปในอดีตเนื่องจากกฎระเบียบด้าน AI ที่วางแผนไว้ แต่สิ่งนี้ก็ถูกเพิกถอนออกไป
ChatGPT อาจเป็นแชทบอท AI ที่ใหญ่ที่สุดในปัจจุบัน แต่ปัญหาความเป็นส่วนตัวของแชทบอทไม่ได้เริ่มต้นและสิ้นสุดที่ผู้ให้บริการรายนี้ หากคุณใช้แชทบอทที่ไม่ชัดเจนซึ่งมีนโยบายความเป็นส่วนตัวที่ขาดความดแจ่มใส การสนทนาของคุณอาจถูกนำไปใช้ในทางที่ผิด หรือข้อมูลที่ละเอียดอ่อนสูงอาจถูกนำไปใช้ในข้อมูลการฝึกอบรม
2. การโจรกรรมข้อมูล
เช่นเดียวกับเครื่องมือหรือแพลตฟอร์มออนไลน์ แชทบอทมีความเสี่ยงต่ออาชญากรรมทางไซเบอร์ แม้ว่าแชทบอตจะทำทุกอย่างที่ทำได้เพื่อปกป้องผู้ใช้และข้อมูลของพวกเขา แต่ก็มีโอกาสที่แฮกเกอร์ผู้รอบรู้จะจัดการแทรกซึมระบบภายในของตนได้เสมอ
หากบริการแชทบอทเก็บข้อมูลละเอียดอ่อนของคุณ เช่น รายละเอียดการชำระเงินสำหรับการสมัครสมาชิกระดับพรีเมียม ข้อมูลการติดต่อ หรือที่คล้ายกัน ข้อมูลดังกล่าวอาจถูกขโมยและนำไปใช้ประโยชน์ได้หากเกิดการโจมตีทางไซเบอร์
โดยเฉพาะอย่างยิ่งหากคุณใช้แชทบอทที่มีความปลอดภัยน้อยกว่าซึ่งนักพัฒนาไม่ได้ลงทุนในการป้องกันความปลอดภัยที่เพียงพอ ไม่เพียงแต่ระบบภายในของบริษัทเท่านั้นที่ถูกแฮ็ก แต่บัญชีของคุณยังมีโอกาสที่จะถูกบุกรุก หากไม่มีการแจ้งเตือนการเข้าสู่ระบบหรือชั้นการตรวจสอบสิทธิ์
ขณะนี้แชทบอท AI ได้รับความนิยมอย่างมาก อาชญากรไซเบอร์จึงแห่กันไปใช้อุตสาหกรรมนี้เพื่อการหลอกลวง เว็บไซต์และปลั๊กอิน ChatGPT ปลอมเป็นปัญหาสำคัญนับตั้งแต่แชทบอตของ OpenAI เข้าสู่กระแสหลักในช่วงปลายปี 2022 โดยผู้คนตกเป็นเหยื่อกลโกงและให้ข้อมูลส่วนบุคคลภายใต้หน้ากากของความชอบธรรมและความไว้วางใจ
ในเดือนมีนาคม พ.ศ. 2566 MUO รายงานเกี่ยวกับ ส่วนขยาย ChatGPT Chrome ปลอมขโมยการเข้าสู่ระบบ Facebook . ปลั๊กอินสามารถใช้ประโยชน์จากแบ็คดอร์ของ Facebook เพื่อแฮ็กบัญชีที่มีโปรไฟล์สูงและขโมยคุกกี้ของผู้ใช้ นี่เป็นเพียงตัวอย่างหนึ่งของบริการ ChatGPT ปลอมจำนวนมากที่ออกแบบมาเพื่อหลอกเหยื่อโดยไม่รู้ตัว
3. การติดเชื้อมัลแวร์
หากคุณใช้แชทบอทที่ไม่คุ้นเคยโดยไม่รู้ตัว คุณอาจพบว่าแชทบอทมีลิงก์ไปยังเว็บไซต์ที่เป็นอันตราย บางทีแชทบอตอาจแจ้งเตือนคุณเกี่ยวกับการแจกของรางวัลที่น่าดึงดูด หรือให้แหล่งที่มาสำหรับข้อความใดข้อความหนึ่ง หากผู้ให้บริการมีเจตนาที่ผิดกฎหมาย จุดรวมของแพลตฟอร์มอาจเป็นการแพร่กระจายมัลแวร์และการหลอกลวงผ่านลิงก์ที่เป็นอันตราย
แฮกเกอร์อาจประนีประนอมบริการแชทบอทที่ถูกกฎหมายและใช้เพื่อแพร่กระจายมัลแวร์ หากแชทบอตนี้มีผู้คนจำนวนมาก ผู้ใช้หลายพันหรือหลายล้านคนก็จะได้รับความเสี่ยงจากมัลแวร์นี้ แอป ChatGPT ปลอมยังมีอยู่ใน Apple App Store ด้วยซ้ำ ดังนั้นจึงควรเดินอย่างระมัดระวัง
โดยทั่วไป คุณไม่ควรคลิกลิงก์ใดๆ ที่แชทบอตให้มาก่อน เรียกใช้ผ่านเว็บไซต์ตรวจสอบลิงก์ . สิ่งนี้อาจดูน่ารำคาญ แต่วิธีที่ดีที่สุดคือต้องแน่ใจว่าไซต์ที่คุณกำลังถูกพาไปไม่มีการออกแบบที่เป็นอันตราย
นอกจากนี้ คุณไม่ควรติดตั้งปลั๊กอินและส่วนขยายแชทบอทใด ๆ โดยไม่ตรวจสอบความถูกต้องก่อน ค้นคว้าข้อมูลเล็กๆ น้อยๆ เกี่ยวกับแอปเพื่อดูว่าได้รับการตรวจสอบมาอย่างดีแล้วหรือยัง และทำการค้นหานักพัฒนาแอปเพื่อดูว่าคุณพบสิ่งลึกลับหรือไม่
Chatbots ไม่สามารถหลีกเลี่ยงปัญหาความเป็นส่วนตัวได้
เช่นเดียวกับเครื่องมือออนไลน์ส่วนใหญ่ในปัจจุบัน แชทบอทถูกวิพากษ์วิจารณ์ซ้ำแล้วซ้ำเล่าถึงข้อผิดพลาดด้านความปลอดภัยและความเป็นส่วนตัวที่อาจเกิดขึ้น ไม่ว่าจะเป็นผู้ให้บริการแชทบอทที่ล้ำหน้าในเรื่องความปลอดภัยของผู้ใช้ หรือความเสี่ยงอย่างต่อเนื่องของการโจมตีทางไซเบอร์และการหลอกลวง สิ่งสำคัญคือคุณต้องรู้ว่าบริการแชทบอทของคุณรวบรวมอะไรจากคุณ และไม่ว่าจะใช้มาตรการรักษาความปลอดภัยที่เพียงพอหรือไม่