تشكل Anthropic وGoogle وMicrosoft وOpenAI مجموعة لأمن الذكاء الاصطناعي. لقد حان الوقت للبدء.
وليس سرا أن تطويرآيايقدم عددًا كبيرًا من المخاطرحماية. وبينما تحاول الحكومات وضع أطر قانونية موضع التنفيذ، فإن الأمر متروك الآن للشركات نفسها لاتخاذ الاحتياطات اللازمة. أحدث مثال على هذا الإشراف يرجع إلى الأنثروبيك،جوجل,مايكروسوفتو OpenAI، معإنشاءمنتدى النموذج الحدودي، كيان يركز على التطوير الآمن للذكاء الاصطناعي. وهي تُعرّف النماذج الحدودية بأنها "نماذج واسعة النطاق للتعلم الآلي" تتجاوز القدرات الحالية وتتمتع بمجموعة واسعة من القدرات.
ويريد المنتدى إنشاء لجنة استشارية وميثاق وصندوق استثمار. لقد أنشأ بالفعل أربع ركائز رئيسية ويرغب في التركيز على تحسين أبحاث أمن الذكاء الاصطناعي، وتنفيذ أفضل الممارسات، والعمل بشكل وثيق مع المنظمين والباحثين والمدنيين والشركات، ويشجع الجهود المبذولة لتصميم الذكاء الاصطناعي الذي "يمكن أن يساعد في التغلب على أعظم التحديات التي يواجهها مجتمعنا".
وسيعمل أعضاؤها على تحقيق الأهداف الثلاثة الأولى خلال الأشهر المقبلة. وعلاوة على ذلك، لتكون قادرة على الانضمام إلى هذامنتدى النموذج الحدوديفمن الضروري إنتاج نماذج للحدود وأظهر رغبة واضحة في جعلها آمنة. وقالت آنا ماكانجو، نائب الرئيس العالمي لشركة الذكاء الاصطناعي: "من الضروري أن تقوم شركات الذكاء الاصطناعي، وخاصة تلك التي تعمل على أقوى النماذج، بالتنسيق والمضي قدمًا معًا في ممارسات أمنية مقبولة لضمان أن أدوات الذكاء الاصطناعي القوية يمكنها تقديم أكبر الفوائد".OpenAI، في بيان صحفي. "هذا عمل عاجل وهذا المنتدى في وضع جيد للعمل بسرعة والمضي قدمًا في مسألة أمن الذكاء الاصطناعي. »
لقد حان الوقت للبدء
ويأتي إنشاء المنتدى في أعقاب اتفاقية أمنية حديثة بين البيت الأبيض وقادة الذكاء الاصطناعي، بما في ذلك المسؤولين عن هذه المبادرة الجديدة. من بين التدابير الأمنية التي تمت مناقشتها وتقريرها بالفعل، إدراج اختبار سوء الاستخدام من قبل خبراء خارجيين وإدخال أالعلامة المائيةفي المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي.
هل يعجبك المحتوى الخاص بنا؟
احصل على أحدث منشوراتنا كل يوم مجانًا ومباشرة في صندوق الوارد الخاص بك