شغل جدید در OpenAI؛ کنترل جنون هوش مصنوعی
OpenAI برای مقابله با خطرات فزاینده هوش مصنوعی و پیامدهای آن بر امنیت و سلامت روان، بهدنبال استخدام مدیر ارشد «آمادگی» است؛ سم آلتمن این نقش را پراسترس و حیاتی توصیف میکند
شرکت OpenAI، خالق ChatGPT، قصد دارد یک مدیر ارشد با عنوان «Head of Preparedness» استخدام کند؛ سمتی که مأموریت اصلی آن پیشبینی، ردیابی و مهار سناریوهای پرخطر و فاجعهبار احتمالی ناشی از پیشرفت هوش مصنوعی است.
به گزارش زومیت، سم آلتمن، مدیرعامل OpenAI، در شبکه اجتماعی ایکس اعلام کرد که توسعه سریع مدلهای هوش مصنوعی با «چالشهای واقعی و جدی» همراه شده و ایجاد چنین جایگاهی برای کنترل خطرات احتمالی این فناوری ضروری است. او هشدار داد که هوش مصنوعی میتواند پیامدهایی جدی برای سلامت روان افراد و همچنین امنیت سایبری، از جمله سلاحهای مبتنی بر هوش مصنوعی، بههمراه داشته باشد.
بر اساس آگهی شغلی منتشرشده از سوی OpenAI، فرد منتخب مسئول «پایش و آمادهسازی برای قابلیتهای پیشرفتهای خواهد بود که میتوانند خطرات جدید و آسیبهای شدید ایجاد کنند». این مدیر ارشد همچنین هدایت ارزیابی قابلیتهای مدلها، مدلسازی تهدیدها و اجرای راهکارهای کاهش ریسک را برعهده خواهد داشت.
آلتمن تأکید کرده است که مدیر جدید نقش کلیدی در اجرای «چارچوب آمادگی» OpenAI خواهد داشت و وظیفه ایمنسازی مدلهای هوش مصنوعی در برابر خطراتی از جمله «قابلیتهای بیولوژیکی» را دنبال میکند. او این موقعیت شغلی را «پراسترس» توصیف کرده است.
این اقدام OpenAI در حالی صورت میگیرد که طی سالهای اخیر، پروندههای پرحاشیهای درباره نقش چتباتها در آسیبهای روانی، از جمله خودکشی نوجوانان، توجه افکار عمومی و نهادهای نظارتی را به خطرات بالقوه هوش مصنوعی جلب کرده است؛ موضوعی که برخی آن را اقدامی دیرهنگام از سوی این شرکت میدانند.
در همین راستا، پدیدهای موسوم به «روانپریشی هوش مصنوعی» (AI Psychosis) به یک نگرانی فزاینده تبدیل شده است؛ وضعیتی که در آن چتباتها با تقویت توهمات ذهنی کاربران یا ترویج نظریههای توطئه، میتوانند به تشدید مشکلات روانی منجر شوند.

Admin 6 




