دسترسی زودهنگام دولت آمریکا به مدل هوش مصنوعی بعدی / تعهد Open AI به حقوق فردی
OpenAI با اعلام گامی مهم در تعهد خود به ایمنی هوش مصنوعی، دسترسی زودهنگام به مدل هوش مصنوعی بعدی خود را برای مؤسسه ایمنی هوش مصنوعی آمریکا فراهم کرده است. این اقدام که توسط مدیر عامل OpenAI، سم آلتمن، اعلام شد. حالا بخشی از استراتژی گستردهتر شرکت برای پیشبرد علم ارزیابی هوش مصنوعی و اطمینان از توسعه فناوریهای هوش مصنوعی ایمن و قابل اعتماد در نظر گرفته خواهد شد.
این تصمیم میتواند به دیدگاه عمومی نسبت به هوش مصنوعی تاثیر مهمی گزارد. با این حالا باید به جوانب این مسئله بیشتر پرداخت.
همکاری با موسسه ایمنی هوش مصنوعی آمریکا
موسسه ملی استانداردها و فناوری (NIST) اوایل امسال موسسه دیگری با نام ایمنی هوش مصنوعی تاسیس کرد، پس از اعلام این موضوع توسط معاون رئیسجمهور دولت آمریکا یعنی کامالا هریس، در نشست ایمنی هوش مصنوعی بریتانیا در سال 2023، هدف این موسسه توسعه دستورالعملها و استانداردهای مبتنی بر علم و تجربی برای اندازهگیری و سیاستگذاری هوش مصنوعی است تا پایهای جهانی برای ایمنی هوش مصنوعی ایجاد کند.
همکاری OpenAI با مؤسسه ایمنی هوش مصنوعی آمریکا شامل فراهم کردن دسترسی زودهنگام به مدل هوش مصنوعی بعدی این شرکت است، اقدامی که برای پیشبرد علم ارزیابیهای هوش مصنوعی طراحی شده است. این همکاری تعهد OpenAI به شفافیت و استانداردهای ایمنی سختگیرانه را تأکید میکند.
نهادهای دولتی در پی همکاری بیشتر با توسعهدهندگان هوش مصنوعی
سال گذشته، OpenAI همراه با DeepMind متعهد شد مدلهای هوش مصنوعی خود را با دولت بریتانیا به اشتراک بگذارد، که نشاندهنده روند رو به رشد همکاری بین توسعهدهندگان هوش مصنوعی و نهادهای دولتی برای افزایش ایمنی هوش مصنوعی است. با وجود این تلاشها، نگرانیهایی وجود دارد که OpenAI ممکن است اولویت را به توسعه مدلهای قدرتمندتر هوش مصنوعی بر ایمنی بدهد. این نگرانیها تا حدی ناشی از حدس و گمانهایی بودند که اخراج موقت سم آلتمن از شرکت به مسائل ایمنی و امنیتی نسبت داده میشد. با این حال، در یادداشتی داخلی اعلام شد که این اخراج به دلیل نقص در ارتباطات بوده است.
در ماه مه امسال، OpenAI تیم سوپرالاینمنت خود را که برای اطمینان از ایمنی انسانها در پیشرفتهای هوش مصنوعی مولد ایجاد شده بود، منحل کرد. خروج شخصیتهای کلیدی مانند ایلیا سوتسکِوِر و جان لیک از این تیم نگرانیها درباره تعهد شرکت به ایمنی را بیشتر کرد. لیک در مجموعهای از توییتها از اختلافات خود با رهبری OpenAI در مورد اولویتهای اصلی شرکت صحبت کرد و اظهار داشت که فرهنگ و فرآیندهای ایمنی جای خود را به محصولات براق دادهاند.
تمام این اخبار موجی از نگرانی بین کاربران به راه انداخت. در تمام این سالها حفظ حریم شخصی یکی از پایههای ثابت مطالبهگری فعالان حقوق بشر و فضای مجازی بوده است. سواستفاده از اطلاعات تجاوز به حریم شخصی مصداق بارز جرم است و از همین رو دولت آمریکا با دست یافتن به نسخه بعدی هوش مصنوعی، توجه بسیاری از رسانهها و کاربران را به خود جلب کرد.
پایبندی به تعهدات امنیتی یک شرط اساسی است
با وجود این موانع، OpenAI بار دیگر تعهد خود به ایمنی را تأیید کرده است. تا ماه ژوئیه، این شرکت متعهد شد حداقل 20 درصد از منابع محاسباتی خود را به تلاشهای ایمنی در سراسر سازمان اختصاص دهد. ایجاد یک گروه ایمنی جدید به رهبری اعضای هیئت مدیره، از جمله سم آلتمن، نیز این تعهد را منعکس میکند، اگرچه نگرانیهایی درباره خودنظارتی ایجاد کرده است.
در یک توییت اخیر، سم آلتمن بر تلاشهای مداوم OpenAI برای همکاری با مؤسسه ایمنی هوش مصنوعی آمریکا برای ایجاد توافقهایی که ایمنی و قابلیت اطمینان مدلهای هوش مصنوعی را تضمین میکنند، تأکید کرد. این همکاری هدف دارد تا روشهای ارزیابی قوی را توسعه دهد و استانداردهای بالایی برای ایمنی هوش مصنوعی تنظیم کند.
تأثیرات گستردهتر در صنعت
اقدام OpenAI برای فراهم کردن دسترسی زودهنگام به مدلهای خود برای ارزیابی ایمنی، تأثیرات گستردهتری برای صنعت هوش مصنوعی دارد. این اقدام الگویی برای سایر توسعهدهندگان هوش مصنوعی ایجاد میکند و فرهنگ شفافیت و همکاری با نهادهای نظارتی را ترویج میدهد. این رویکرد در مواجهه با سرعت بالای توسعه هوش مصنوعی که اغلب توانایی شرکتها و جامعه برای اطمینان از ایمنی را پیشی میگیرد، حیاتی است.
مشارکت نهادهای دولتی مانند موسسه ایمنی هوش مصنوعی آمریکا در فرآیند ارزیابی میتواند منجر به ایجاد پروتکلهای ایمنی استانداردی شود که همه توسعهدهندگان هوش مصنوعی باید از آن پیروی کنند. این اقدام میتواند خطرات مرتبط با استفاده از مدلهای قدرتمند هوش مصنوعی را کاهش دهد و اطمینان حاصل کند که آنها به طور مسئولانه و اخلاقی استفاده میشوند.
آیا نگرانیها برطرف میشوند؟
تصمیم OpenAI برای فراهم کردن دسترسی زودهنگام به مدل هوش مصنوعی بعدی خود برای مؤسسه ایمنی هوش مصنوعی آمریکا، گامی مهم در افزایش ایمنی هوش مصنوعی است. با همکاری با نهادهای نظارتی و اختصاص منابع قابل توجه به تلاشهای ایمنی، OpenAI هدف دارد تا استاندارد بالایی برای صنعت تعیین کند. این اقدام نه تنها نگرانیهای فعلی درباره اولویتهای ایمنی شرکت را برطرف میکند، بلکه راه را برای فرآیندهای ارزیابی هوش مصنوعی دقیقتر و شفافتر هموار میکند.
با ادامه تکامل فناوری هوش مصنوعی، چنین تلاشهای مشترکی بین توسعهدهندگان هوش مصنوعی و نهادهای نظارتی برای اطمینان از پیشرفتهای ایمن و مسئولانه ضروری خواهد بود. اقدامات OpenAI اهمیت اولویت دادن به ایمنی در کنار نوآوری در توسعه هوش مصنوعی را برجسته میکند.