شغل جدید در OpenAI؛ کنترل جنون هوش مصنوعی

OpenAI برای مقابله با خطرات فزاینده هوش مصنوعی و پیامدهای آن بر امنیت و سلامت روان، به‌دنبال استخدام مدیر ارشد «آمادگی» است؛ سم آلتمن این نقش را پراسترس و حیاتی توصیف می‌کند

شغل جدید در OpenAI؛ کنترل جنون هوش مصنوعی

شرکت OpenAI، خالق ChatGPT، قصد دارد یک مدیر ارشد با عنوان «Head of Preparedness» استخدام کند؛ سمتی که مأموریت اصلی آن پیش‌بینی، ردیابی و مهار سناریوهای پرخطر و فاجعه‌بار احتمالی ناشی از پیشرفت هوش مصنوعی است.

به گزارش زومیت، سم آلتمن، مدیرعامل OpenAI، در شبکه اجتماعی ایکس اعلام کرد که توسعه سریع مدل‌های هوش مصنوعی با «چالش‌های واقعی و جدی» همراه شده و ایجاد چنین جایگاهی برای کنترل خطرات احتمالی این فناوری ضروری است. او هشدار داد که هوش مصنوعی می‌تواند پیامدهایی جدی برای سلامت روان افراد و همچنین امنیت سایبری، از جمله سلاح‌های مبتنی بر هوش مصنوعی، به‌همراه داشته باشد.

بر اساس آگهی شغلی منتشرشده از سوی OpenAI، فرد منتخب مسئول «پایش و آماده‌سازی برای قابلیت‌های پیشرفته‌ای خواهد بود که می‌توانند خطرات جدید و آسیب‌های شدید ایجاد کنند». این مدیر ارشد همچنین هدایت ارزیابی قابلیت‌های مدل‌ها، مدل‌سازی تهدیدها و اجرای راهکارهای کاهش ریسک را برعهده خواهد داشت.

آلتمن تأکید کرده است که مدیر جدید نقش کلیدی در اجرای «چارچوب آمادگی» OpenAI خواهد داشت و وظیفه ایمن‌سازی مدل‌های هوش مصنوعی در برابر خطراتی از جمله «قابلیت‌های بیولوژیکی» را دنبال می‌کند. او این موقعیت شغلی را «پراسترس» توصیف کرده است.

این اقدام OpenAI در حالی صورت می‌گیرد که طی سال‌های اخیر، پرونده‌های پرحاشیه‌ای درباره نقش چت‌بات‌ها در آسیب‌های روانی، از جمله خودکشی نوجوانان، توجه افکار عمومی و نهادهای نظارتی را به خطرات بالقوه هوش مصنوعی جلب کرده است؛ موضوعی که برخی آن را اقدامی دیرهنگام از سوی این شرکت می‌دانند.

در همین راستا، پدیده‌ای موسوم به «روان‌پریشی هوش مصنوعی» (AI Psychosis) به یک نگرانی فزاینده تبدیل شده است؛ وضعیتی که در آن چت‌بات‌ها با تقویت توهمات ذهنی کاربران یا ترویج نظریه‌های توطئه، می‌توانند به تشدید مشکلات روانی منجر شوند.