۰۲/آذر/۱۴۰۳ ۲۰:۱۲ Friday - 2024 22 November
۱۴۰۳/۰۵/۱۶ ۱۳:۵۴

دسترسی زودهنگام دولت آمریکا به مدل هوش مصنوعی بعدی / تعهد Open AI به حقوق فردی

امروزه هوش مصنوعی را می‌توان یکی از ترندهای نوآوری به شمار آورد. سرعت پیشرفت این حوزه بسیار بالاست. مدل‌های هوش مصنوعی در کسب و کارهای مختلف و صنایع مختلف به کار برده می‌شود و حالا دولت آمریکا برای مدل بعدی هوش مصنوعی Open AI طرح بلندپروازانه‌ای در سردارد.
کد خبر: ۲۱۱۵۶۱
تیتر یک اقتصاد |

OpenAI با اعلام گامی مهم در تعهد خود به ایمنی هوش مصنوعی، دسترسی زودهنگام به مدل هوش مصنوعی بعدی خود را برای مؤسسه ایمنی هوش مصنوعی آمریکا فراهم کرده است. این اقدام که توسط مدیر عامل OpenAI، سم آلتمن، اعلام شد. حالا بخشی از استراتژی گسترده‌تر شرکت برای پیشبرد علم ارزیابی هوش مصنوعی و اطمینان از توسعه فناوری‌های هوش مصنوعی ایمن و قابل اعتماد در نظر گرفته خواهد شد. 

این تصمیم می‌تواند به دیدگاه عمومی نسبت به هوش مصنوعی تاثیر مهمی گزارد. با این حالا باید به جوانب این مسئله بیشتر پرداخت.

همکاری با موسسه ایمنی هوش مصنوعی آمریکا

موسسه ملی استانداردها و فناوری (NIST) اوایل امسال موسسه دیگری با نام ایمنی هوش مصنوعی تاسیس کرد، پس از اعلام این موضوع توسط معاون رئیس‌جمهور دولت آمریکا یعنی کامالا هریس، در نشست ایمنی هوش مصنوعی بریتانیا در سال 2023، هدف این موسسه توسعه دستورالعمل‌ها و استانداردهای مبتنی بر علم و تجربی برای اندازه‌گیری و سیاست‌گذاری هوش مصنوعی است تا پایه‌ای جهانی برای ایمنی هوش مصنوعی ایجاد کند.

همکاری OpenAI با مؤسسه ایمنی هوش مصنوعی آمریکا شامل فراهم کردن دسترسی زودهنگام به مدل هوش مصنوعی بعدی این شرکت است، اقدامی که برای پیشبرد علم ارزیابی‌های هوش مصنوعی طراحی شده است. این همکاری تعهد OpenAI به شفافیت و استانداردهای ایمنی سخت‌گیرانه را تأکید می‌کند.

نهادهای دولتی در پی همکاری بیشتر با توسعه‌دهندگان هوش مصنوعی

سال گذشته، OpenAI همراه با DeepMind متعهد شد مدل‌های هوش مصنوعی خود را با دولت بریتانیا به اشتراک بگذارد، که نشان‌دهنده روند رو به رشد همکاری بین توسعه‌دهندگان هوش مصنوعی و نهادهای دولتی برای افزایش ایمنی هوش مصنوعی است. با وجود این تلاش‌ها، نگرانی‌هایی وجود دارد که OpenAI ممکن است اولویت را به توسعه مدل‌های قدرتمندتر هوش مصنوعی بر ایمنی بدهد. این نگرانی‌ها تا حدی ناشی از حدس و گمان‌هایی بودند که اخراج موقت سم آلتمن از شرکت به مسائل ایمنی و امنیتی نسبت داده می‌شد. با این حال، در یادداشتی داخلی اعلام شد که این اخراج به دلیل نقص در ارتباطات بوده است.

در ماه مه امسال، OpenAI تیم سوپرالاینمنت خود را که برای اطمینان از ایمنی انسان‌ها در پیشرفت‌های هوش مصنوعی مولد ایجاد شده بود، منحل کرد. خروج شخصیت‌های کلیدی مانند ایلیا سوتسکِوِر و جان لیک از این تیم نگرانی‌ها درباره تعهد شرکت به ایمنی را بیشتر کرد. لیک در مجموعه‌ای از توییت‌ها از اختلافات خود با رهبری OpenAI در مورد اولویت‌های اصلی شرکت صحبت کرد و اظهار داشت که فرهنگ و فرآیندهای ایمنی جای خود را به محصولات براق داده‌اند.

تمام این اخبار موجی از نگرانی بین کاربران به راه انداخت. در تمام این سال‌ها حفظ حریم شخصی یکی از پایه‌های ثابت مطالبه‌گری فعالان حقوق بشر و فضای مجازی بوده است. سواستفاده از اطلاعات تجاوز به حریم شخصی مصداق بارز جرم است و از همین رو دولت آمریکا با دست یافتن به نسخه بعدی هوش مصنوعی، توجه بسیاری از رسانه‌ها و کاربران را به خود جلب کرد.

پایبندی به تعهدات امنیتی یک شرط اساسی است

با وجود این موانع، OpenAI بار دیگر تعهد خود به ایمنی را تأیید کرده است. تا ماه ژوئیه، این شرکت متعهد شد حداقل 20 درصد از منابع محاسباتی خود را به تلاش‌های ایمنی در سراسر سازمان اختصاص دهد. ایجاد یک گروه ایمنی جدید به رهبری اعضای هیئت مدیره، از جمله سم آلتمن، نیز این تعهد را منعکس می‌کند، اگرچه نگرانی‌هایی درباره خودنظارتی ایجاد کرده است.

در یک توییت اخیر، سم آلتمن بر تلاش‌های مداوم OpenAI برای همکاری با مؤسسه ایمنی هوش مصنوعی آمریکا برای ایجاد توافق‌هایی که ایمنی و قابلیت اطمینان مدل‌های هوش مصنوعی را تضمین می‌کنند، تأکید کرد. این همکاری هدف دارد تا روش‌های ارزیابی قوی را توسعه دهد و استانداردهای بالایی برای ایمنی هوش مصنوعی تنظیم کند.

تأثیرات گسترده‌تر در صنعت

اقدام OpenAI برای فراهم کردن دسترسی زودهنگام به مدل‌های خود برای ارزیابی ایمنی، تأثیرات گسترده‌تری برای صنعت هوش مصنوعی دارد. این اقدام الگویی برای سایر توسعه‌دهندگان هوش مصنوعی ایجاد می‌کند و فرهنگ شفافیت و همکاری با نهادهای نظارتی را ترویج می‌دهد. این رویکرد در مواجهه با سرعت بالای توسعه هوش مصنوعی که اغلب توانایی شرکت‌ها و جامعه برای اطمینان از ایمنی را پیشی می‌گیرد، حیاتی است.

مشارکت نهادهای دولتی مانند موسسه ایمنی هوش مصنوعی آمریکا در فرآیند ارزیابی می‌تواند منجر به ایجاد پروتکل‌های ایمنی استانداردی شود که همه توسعه‌دهندگان هوش مصنوعی باید از آن پیروی کنند. این اقدام می‌تواند خطرات مرتبط با استفاده از مدل‌های قدرتمند هوش مصنوعی را کاهش دهد و اطمینان حاصل کند که آنها به طور مسئولانه و اخلاقی استفاده می‌شوند.

آیا نگرانی‌ها برطرف می‌شوند؟

تصمیم OpenAI برای فراهم کردن دسترسی زودهنگام به مدل هوش مصنوعی بعدی خود برای مؤسسه ایمنی هوش مصنوعی آمریکا، گامی مهم در افزایش ایمنی هوش مصنوعی است. با همکاری با نهادهای نظارتی و اختصاص منابع قابل توجه به تلاش‌های ایمنی، OpenAI هدف دارد تا استاندارد بالایی برای صنعت تعیین کند. این اقدام نه تنها نگرانی‌های فعلی درباره اولویت‌های ایمنی شرکت را برطرف می‌کند، بلکه راه را برای فرآیندهای ارزیابی هوش مصنوعی دقیق‌تر و شفاف‌تر هموار می‌کند.

با ادامه تکامل فناوری هوش مصنوعی، چنین تلاش‌های مشترکی بین توسعه‌دهندگان هوش مصنوعی و نهادهای نظارتی برای اطمینان از پیشرفت‌های ایمن و مسئولانه ضروری خواهد بود. اقدامات OpenAI اهمیت اولویت دادن به ایمنی در کنار نوآوری در توسعه هوش مصنوعی را برجسته می‌کند.

گزارش خطا
ارسال نظرات