تتلقى شركة Meta إخفاقًا ذريعًا في أول تقييم لأمن الذكاء الاصطناعي، في حين أن الشركات الأخرى بالكاد تتجاوز المتوسط.
Tl;dr
- إن تنظيم الذكاء الاصطناعي ضروري ويجب تعزيزه.
- مؤشرحمايةيقوم الذكاء الاصطناعي بتقييم مسؤولية مختبرات الذكاء الاصطناعي الكبيرة.
- وكانت النتائج مثيرة للقلق، مع وجود ثغرات كبيرة في مجال السلامة.
الحاجة إلى زيادة تنظيم الذكاء الاصطناعي
في مواجهة التطور المبهر للالذكاء الاصطناعيلقد أصبح من الواضح أننا بحاجة إلى وضع الإشراف المناسب. من المؤكد أن العديد من مختبرات الذكاء الاصطناعي مفتوحة للتنظيم وتسمح بإجراء تقييم مستقل لنماذجها قبل طرحها للتداول. ومع ذلك، تبدو هذه الجهود غير كافية بالنظر إلى القضايا المطروحة.
أداة التقييم: مؤشر أمن الذكاء الاصطناعي
لقد طور مستقبل الحياة مقياسًا لتقييم مختبرات الذكاء الاصطناعي المختلفة - بما في ذلك OpenAI وMeta وAnthropic وxAI منايلون ماسك. مؤشر أمان الذكاء الاصطناعي هو مراجعة مستقلة تعتمد على 42 مؤشرًا لـ “السلوك المسؤول”. يتم تصنيف كل شركة على هذه المؤشرات. لسوء الحظ، بعض الشركات، مثل شركة Meta التي تطور نماذج الذكاء الاصطناعيمفتوح المصدرعن طريق عائلة اللاما، حصل على أدنى درجة، "F".
فيما يتعلق بالنتائج والحاجة الملحة للتحسين
النتائج الأولية لهذا التقييم المستقل مثيرة للقلق. ووجدت الدراسة "فجوات كبيرة في التدابير الأمنية وحاجة جدية لتحسين المساءلة". وتشمل الشركات التي تم تقييمها Anthropic، وGoogle DeepMind، وMeta،OpenAIو x.AI و Zhipu AI. إذا كانت Meta في أسفل المقياس، فإن Anthropic تأتي في الأعلى - ولكن بدرجة "C" فقط.
وتبين أن جميع النماذج الرئيسية "عرضة لهجمات الخصوم"، مع احتمال انعدام الأمن وخطر الهروب من السيطرة البشرية. ويسلط التقرير الضوء على أن الشركات غير قادرة على مقاومة إغراء إعطاء الأولوية للأرباح على السلامة في غياب الرقابة المستقلة.
ختاماًهناك حاجة ملحة لمزيد من الرقابة والمساءلة في صناعة الذكاء الاصطناعي الناشئة، قبل فوات الأوان. وكلما أصبحت النماذج أقوى، زادت المخاطر.
الخلاصة
هل يعجبك المحتوى الخاص بنا؟
احصل على أحدث منشوراتنا كل يوم مجانًا ومباشرة في صندوق الوارد الخاص بك