مدير الثقة والأمن في OpenAI يغادر الشركة. القرار الذي ينشأ في سياق معقد إلى حد ما.
مدير الثقة وحمايةد'OpenAI,ترك ديف ويلنر الشركة، كما أعلن في إحدى المشاركاتينكدين. ومع ذلك، فهو يحتفظ بـ "دور استشاري"، لكنه طلب من مشتركيه أن ينقلوا له أي فرص مماثلة. يوضح ديف ويلنر أنه اتخذ هذا القرار ليتمكن من قضاء المزيد من الوقت مع عائلته. قبل ذكر الأسباب "الحقيقية".
"في الأشهر التي أعقبت إطلاقChatGPTيكتب: "كان الأمر أكثر صعوبة بالنسبة لي لإدارة كل شيء". "إن OpenAI تمر بمرحلة مكثفة جدًا من تطورها - تمامًا مثل أطفالنا. من المؤكد أن أي شخص لديه أطفال صغار ويعمل في وظيفة مزدحمة للغاية قد شعر بهذا التوتر من قبل. »
ويمضي قائلاً إنه "فخور بكل شيء" أنجزته الشركة خلال فترة وجوده في هذا المنصب ويقول إنها كانت "واحدة من أروع الوظائف وأكثرها إثارة للاهتمام" في العالم.
وبطبيعة الحال، يأتي هذا التحول أيضًا في الوقت الذي تواجه فيه OpenAI العديد من العقبات القانونية، تمامًا مثل منتجها الرئيسي ChatGPT. فتحت لجنة التجارة الفيدرالية (FTC) مؤخرًا تحقيقًا مع الشركة بسبب مخاوف من أنها قد تنتهك قوانين حماية المستهلك وتستخدم ممارسات "غير عادلة أو خادعة" يمكن أن تعرض خصوصية وأمن عامة الناس للخطر. يستهدف التحقيق بشكل خاص الخلل الذي أدى إلى تسرب بيانات خاصة، والتي من الواضح أنها تقع عادة تحت إشراف قسم الثقة والأمن.
قرار يحدث في سياق معقد إلى حد ما
يوضح ديف ويلنر أن قراره كان في الواقع "اختيارًا سهلاً للغاية، ولكنه ليس من نوع الاختيار الذي غالبًا ما يتخذه شخص في منصبه صراحةً علنًا". »ويقول أيضًا إنه يأمل أن تساعد هذه الخطوة في إجراء المزيد من المناقشات المفتوحة في المستقبل حول التوازن بين العمل والحياة.
وكانت هناك مخاوف كثيرة في الأشهر الأخيرة بشأن أمنالذكاء الاصطناعيوآخرونOpenAIهي إحدى الشركات التي التزمت بوضع ضمانات على منتجاتها بناءً على أوامر من الرئيس بايدن والبيت الأبيض. ويشمل ذلك السماح للخبراء المستقلين بالوصول إلى الكود الخاص بهم، وتقييم المخاطر المجتمعية مثل التحيز، ومشاركة المعلومات الأمنية مع الحكومة، وإدراج العلامات المائية على المحتوى الصوتي والمرئي للإشارة لعامة الناس إلى أن هذا محتوى تم إنشاؤه بواسطة الذكاء الاصطناعي.
هل يعجبك المحتوى الخاص بنا؟
احصل على أحدث منشوراتنا كل يوم مجانًا ومباشرة في صندوق الوارد الخاص بك