مثال جديد يوضح أن كل شيء ليس وردياً في عالم الذكاء الاصطناعي التوليدي.
Tl;dr
- تمكن الباحثون من جعل ChatGPT يكشف عن البيانات الخاصة.
- استخدمت نماذج اللغة البيانات العامة دون موافقة.
- تم الكشف عن تفاصيل الاتصال الخاصة باستخدام كلمات سريعة بسيطة.
- قام OpenAI بإصلاح هذا الخللحمايةفي 30 أغسطس.
خروقات البيانات الخاصة بواسطة chatbot
دراسة حديثة أجراها فريق بحثي مكون من متخصصين فيجوجل ديب مايند، من جامعة واشنطن، وجامعة كورنيل، وكارنيجي ميلون، وجامعة كاليفورنيا بيركلي، وETH زيوريخ، يسلط الضوء علىخرق أمنيمقلق. وباستخدام سلسلة من الكلمات العشوائية كمطالبات، تمكن هؤلاء الباحثون من جعل برنامج الدردشة الآلي المسمى ChatGPT يكشف عن كمية كبيرة من المعلومات الخاصة.
استغلال النماذج اللغوية
يعمل ChatGPT، تمامًا مثل DALL-E وخدمات الذكاء الاصطناعي الأخرى، بناءً على نماذج لغوية كبيرة. هذه النماذج عبارة عن خوارزميات للتعلم العميق تتغذى على كميات هائلة من البيانات، والتي يتم جمعها غالبًا دون موافقة المستخدمإنترنتجمهور. لكن التحقيق الذي أجراه الباحثون كشف عن أمجموعة واسعة من المعلومات الخاصة، بما في ذلك عناوين البريد الإلكتروني وأرقام الهواتف.
تم الكشف عن معلومات حساسة
على سبيل المثال، عن طريق السؤالChatGPTومن تكرار كلمة "قصيدة" إلى ما لا نهاية، انتهى الأمر بالروبوت إلى تسريب عنوان بريد إلكتروني ورقم هاتف ينتميان إلى مؤسس حقيقي ومدير تنفيذي، كما توضح الورقة البحثية. كما أدت كلمة "شركة" إلى الكشف عن تفاصيل اتصال مماثلة تابعة لشركة محاماةالولايات المتحدة.
تصحيح OpenAI
وبعد هذه الاكتشافات، قامت OpenAI بتصحيح هذه الثغرة الأمنية في 30 أغسطس، كما ادعى الباحثون. إلا أن بعض الاختبارات التي أجرتها شركة Engadget تمكنت من إعادة إنتاج نتائج الورقة البحثية، مما أثار تساؤلات حول مدى فعالية هذا التصحيح.
الخلاصة
هل يعجبك المحتوى الخاص بنا؟
احصل على أحدث منشوراتنا كل يوم مجانًا ومباشرة في صندوق الوارد الخاص بك