NTIA بیش از 1450 نظر در مورد مسئولیت پذیری هوش مصنوعی دریافت کرد


اداره ملی ارتباطات و اطلاعات (NTIA)، بخشی از وزارت بازرگانی ایالات متحده، از نظرات عمومی در مورد استراتژی‌هایی برای ارتقای مسئولیت‌پذیری در سیستم‌های هوش مصنوعی (AI) مورد اعتماد دعوت کرده است.

هدف درخواست بازخورد از ذینفعان برای تدوین پیشنهادهایی برای گزارش آتی در مورد چارچوب های تضمین هوش مصنوعی و پاسخگویی بود. این پیشنهادات ممکن است مقررات فدرال و غیردولتی آینده را هدایت کند.

بر اساس درخواست NTIA، ترویج هوش مصنوعی قابل اعتماد که از حقوق بشر و اصول دموکراتیک حمایت می کند، یک تمرکز اصلی فدرال بود. با این حال، شکاف‌هایی در حصول اطمینان از اینکه سیستم‌های هوش مصنوعی پاسخگو هستند و به قوانین قوی هوش مصنوعی در مورد عدالت، ایمنی، حریم خصوصی و شفافیت پایبند هستند، باقی می‌ماند.

مکانیسم‌های پاسخگویی مانند ممیزی، ارزیابی تأثیر و صدور گواهینامه می‌توانند این اطمینان را ایجاد کنند که سیستم‌های هوش مصنوعی به معیارهای قابل اعتماد پایبند هستند. اما NTIA خاطرنشان کرد که اجرای پاسخگویی مؤثر همچنان چالش ها و پیچیدگی هایی را به همراه دارد.

NTIA ملاحظات مختلفی را در مورد تعادل بین اهداف معتبر هوش مصنوعی، موانع پاسخگویی، زنجیره‌های تامین و ارزش پیچیده هوش مصنوعی و مشکلات در استانداردسازی اندازه‌گیری‌ها مورد بحث قرار داد.

بیش از 1450 نظر در مورد مسئولیت پذیری هوش مصنوعی

نظرات تا 12 ژوئن پذیرفته شد تا به شکل گیری گزارش آینده NTIA و هدایت تحولات سیاست بالقوه در مورد مسئولیت پذیری هوش مصنوعی کمک کند.

تعداد نظرات از 1450 فراتر رفت.

نظرات قابل جستجو با کلمات کلیدی گاهی اوقات شامل پیوندهایی به مقالات، نامه ها، اسناد و دعاوی در مورد تأثیر بالقوه هوش مصنوعی است.

شرکت های فناوری به NTIA پاسخ می دهند

نظرات شامل بازخورد شرکت های فناوری زیر است که به دنبال توسعه محصولات هوش مصنوعی برای محل کار هستند.

نامه OpenAI به NTIA

در نامه OpenAI، چارچوب NTIA از این موضوع را به عنوان یک “اکوسیستم” از اقدامات پاسخگویی هوش مصنوعی مورد نیاز برای اطمینان از هوش مصنوعی قابل اعتماد تحسین می کند.

محققان OpenAI معتقدند که یک اکوسیستم پاسخگویی هوش مصنوعی بالغ از عناصر پاسخگویی مشترک تشکیل شده است که به طور گسترده در دامنه ها و عناصر عمودی سفارشی شده برای زمینه ها و برنامه های خاص اعمال می شود.

OpenAI بر توسعه مدل‌های پایه تمرکز می‌کند – مدل‌های هوش مصنوعی با کاربرد گسترده که از مجموعه داده‌های گسترده یاد می‌گیرند.

این نیاز به اتخاذ رویکردی مبتنی بر ایمنی برای این مدل‌ها، صرف‌نظر از حوزه‌های خاصی که ممکن است در آن‌ها مورد استفاده قرار گیرند، می‌پردازد.

OpenAI چندین رویکرد فعلی را برای پاسخگویی هوش مصنوعی توصیف کرده است. “نقشه های سیستم” را برای ارائه شفافیت در مورد مسائل عملکردی و خطرات مدل های جدید منتشر می کند.

برای بررسی قابلیت‌ها و حالت‌های شکست، آزمایش‌های کیفی «تیم قرمز» را انجام می‌دهد. ارزیابی های کمی از فرصت ها و ریسک های مختلف انجام می دهد. و سیاست های استفاده واضحی وجود دارد که استفاده های مضر را ممنوع می کند، همراه با مکانیسم های اجرایی.

OpenAI چندین چالش برجسته مهم از جمله ارزیابی قابلیت‌های بالقوه خطرناک را تایید می‌کند، زیرا قابلیت‌های مدل همچنان در حال تکامل است.

او درباره سؤالات باز پیرامون ارزیابی های شخص ثالث مستقل از مدل های خود بحث کرد. و نشان می‌دهد که الزامات ثبت و مجوز ممکن است برای مدل‌های بنیاد آینده با خطرات قابل توجه ضروری باشد.

در حالی که شیوه‌های فعلی OpenAI بر شفافیت، آزمایش و سیاست‌ها تمرکز دارد، به نظر می‌رسد این شرکت آماده همکاری با سیاست‌گذاران برای توسعه اقدامات پاسخگویی قوی‌تر است. این نشان می‌دهد که چارچوب‌های نظارتی مناسب ممکن است برای مدل‌های هوش مصنوعی شایسته مورد نیاز باشد.

به طور کلی، پاسخ OpenAI منعکس کننده این باور است که ترکیبی از تلاش‌های خودتنظیمی و سیاست‌های دولت نقش حیاتی در توسعه یک اکوسیستم پاسخگویی هوش مصنوعی موثر خواهد داشت.

نامه مایکروسافت به NTIA

مایکروسافت در پاسخ خود استدلال کرد که مسئولیت پذیری باید عنصر اصلی چارچوب ها برای رسیدگی به خطرات ناشی از هوش مصنوعی و در عین حال به حداکثر رساندن مزایای آن باشد. شرکت هایی که در حال توسعه و استفاده از هوش مصنوعی هستند باید در قبال تأثیر سیستم های خود پاسخگو باشند و نهادهای نظارتی به اختیار، دانش و ابزار لازم برای اعمال نظارت مناسب نیاز دارند.

مایکروسافت درس هایی از برنامه هوش مصنوعی مسئولیت پذیر خود را بیان کرد که هدف آن اطمینان از باقی ماندن ماشین ها در کنترل انسان است. مسئولیت پذیری در ساختار حاکمیتی و استاندارد هوش مصنوعی مسئول تعبیه شده است و شامل موارد زیر است:

  • انجام ارزیابی اثرات برای شناسایی و رسیدگی به آسیب های احتمالی.
  • نظارت اضافی برای سیستم های پرخطر.
  • اسنادی برای اطمینان از مناسب بودن سیستم ها برای هدف.
  • شیوه های حاکمیت و مدیریت داده ها.
  • بهبود هدایت و کنترل انسانی.
  • مایکروسافت توضیح داده است که چگونه یک تیم قرمز را برای کشف آسیب‌ها و شکست‌های احتمالی هدایت می‌کند و یادداشت‌های شفاف‌سازی را برای خدمات هوش مصنوعی خود منتشر کرده است. موتور جستجوی جدید بینگ مایکروسافت از این رویکرد هوش مصنوعی مسئولانه استفاده می کند.

مایکروسافت شش توصیه برای بهبود پاسخگویی ارائه کرد:

  • بر اساس چارچوب مدیریت ریسک هوش مصنوعی NIST برای تسریع استفاده از مکانیسم‌های پاسخگویی مانند ارزیابی تأثیر و نوار قرمز، به‌ویژه برای سیستم‌های هوش مصنوعی پرخطر.
  • یک چارچوب قانونی و نظارتی بر اساس پشته فناوری هوش مصنوعی، از جمله الزامات صدور مجوز برای مدل‌های بنیاد و ارائه‌دهندگان زیرساخت ایجاد کنید.
  • افزایش شفافیت به عنوان ابزاری برای پاسخگویی، از جمله از طریق ثبت سیستم های هوش مصنوعی پرخطر.
  • سرمایه‌گذاری در ظرفیت‌سازی قانون‌گذاران و قانون‌گذاران برای همگام شدن با پیشرفت‌های هوش مصنوعی.
  • برای بهبود معیارهای ارزیابی هوش مصنوعی، قابلیت توضیح، تعامل انسان و رایانه و ایمنی، روی تحقیقات سرمایه گذاری کنید.
  • توسعه و هماهنگی با استانداردهای بین المللی برای حمایت از یک اکوسیستم تضمینی، از جمله استانداردهای ISO AI و استانداردهای منشأ محتوا.
  • به طور کلی، مایکروسافت به نظر می رسد مایل به همکاری با سهامداران برای توسعه و پیاده سازی رویکردهای موثر برای پاسخگویی هوش مصنوعی است.

به طور کلی، مایکروسافت آماده همکاری با سهامداران برای توسعه و پیاده سازی رویکردهای موثر برای پاسخگویی هوش مصنوعی است.

نامه گوگل به NTIA

پاسخ گوگل از درخواست NTIA برای اظهار نظر در مورد سیاست های پاسخگویی هوش مصنوعی استقبال می کند. او نیاز به خودتنظیمی و حکمرانی را برای دستیابی به هوش مصنوعی قابل اعتماد تشخیص داد.

گوگل کار خود را در مورد ایمنی و اخلاق هوش مصنوعی، به عنوان مجموعه ای از اصول هوش مصنوعی که بر عدالت، ایمنی، حریم خصوصی و شفافیت متمرکز است، برجسته کرد. گوگل همچنین شیوه‌های هوش مصنوعی مسئول را در داخل پیاده‌سازی کرده است، از جمله انجام ارزیابی‌های ریسک و ارزیابی‌های عادلانه.

Google استفاده از چارچوب‌های نظارتی موجود را در مواردی که مداخلات قابل اجرا و مبتنی بر ریسک برای هوش مصنوعی پرخطر است تأیید کرده است. استفاده از یک رویکرد مشترک و مبتنی بر اجماع برای توسعه استانداردهای فنی را تشویق کرد.

گوگل موافقت کرد که مکانیسم‌های پاسخگویی مانند ممیزی، ارزیابی و صدور گواهینامه می‌تواند اعتماد به سیستم‌های هوش مصنوعی قابل اعتماد را فراهم کند. اما این مکانیسم‌ها برای مواجهه با چالش‌های پیاده‌سازی، از جمله ارزیابی جنبه‌های متعددی که بر خطرات یک سیستم هوش مصنوعی تأثیر می‌گذارند، اشاره می‌کنند.

گوگل توصیه کرد که مکانیسم‌های مسئولیت‌پذیری را روی عوامل خطر کلیدی متمرکز کند و استفاده از رویکردهایی را پیشنهاد کرد که محتمل‌ترین روش‌هایی را هدف قرار می‌دهند که سیستم‌های هوش مصنوعی می‌توانند به طور قابل‌توجهی بر جامعه تأثیر بگذارند.

گوگل یک مدل “hub-and-spoke” از مقررات AI را توصیه کرد، با تنظیم کننده های بخش نظارت بر اجرای هوش مصنوعی با راهنمایی یک آژانس مرکزی مانند NIST. او از شفاف سازی چگونگی اعمال قوانین موجود در AI و ترویج اقدامات مسئولیت پذیری متناسب مبتنی بر ریسک برای هوش مصنوعی پرخطر حمایت کرد.

مانند دیگران، گوگل معتقد بود که برای بهبود پاسخگویی هوش مصنوعی به ترکیبی از خودتنظیمی، استانداردهای فنی و سیاست‌های دولتی محدود و مبتنی بر ریسک نیاز دارد.

نامه انسانی به NTIA

پاسخ آنتروپیک این باور را توصیف می‌کند که یک اکوسیستم پاسخگویی هوش مصنوعی قوی به مکانیزم‌های متناسب با مدل‌های هوش مصنوعی نیاز دارد. او چندین چالش را شناسایی کرد، از جمله دشواری در ارزیابی دقیق سیستم‌های هوش مصنوعی و دسترسی به اطلاعات حساس مورد نیاز برای ممیزی بدون به خطر انداختن امنیت.

بودجه مورد حمایت Anthropic برای موارد زیر:

  • ارزیابی‌های مدل: ارزیابی‌های فعلی یک تکه تکه هستند و به تخصص تخصصی نیاز دارند. استانداردسازی ارزیابی های قابلیت متمرکز بر خطراتی مانند تقلب و استقلال توصیه می شود.
  • تحقیق تفسیرپذیری: کمک‌های مالی و بودجه برای تحقیقات تفسیرپذیری می‌تواند مدل‌های شفاف‌تر و قابل فهم‌تری را فراهم کند. با این حال، مقرراتی که نیاز به تفسیرپذیری دارند در حال حاضر غیر قابل اجرا هستند.
  • پیش‌ثبت‌نام آموزش‌های بزرگ هوش مصنوعی: توسعه‌دهندگان هوش مصنوعی باید آموزش‌های بزرگ را به قانون‌گذاران گزارش دهند تا آنها را از خطرات جدید با حفاظت از حریم خصوصی کافی آگاه کنند.
  • ادغام قرمز خارجی: آزمایش رقابتی اجباری سیستم‌های هوش مصنوعی قبل از انتشار، چه از طریق یک سازمان متمرکز مانند NIST یا از طریق دسترسی محقق. با این حال، استعداد پوشیدن لباس قرمز در حال حاضر در آزمایشگاه‌های خصوصی هوش مصنوعی وجود دارد.
  • حسابرسان با تخصص فنی، آگاهی امنیتی و انعطاف پذیری: حسابرسان نیاز به تخصص عمیق در یادگیری ماشین دارند و در عین حال از نشت اطلاعات یا هک شدن جلوگیری می کنند، اما آنها همچنین باید در چارچوب محدودیت هایی کار کنند که رقابت را ارتقا می دهد.
  • Anthropic اقدامات پاسخگویی دامنه را بر اساس قابلیت های مدل و خطرات نشان داده شده ارزیابی شده از طریق ارزیابی های قابلیت هدفمند توصیه می کند. این سازمان پیشنهاد کرد که چارچوب های مالکیت IP برای هوش مصنوعی را روشن کند تا مجوزهای منصفانه را فراهم کند و راهنمایی هایی را در مورد موضوعات ضد انحصار برای فعال کردن همکاری ایمنی ارائه دهد.
  • به طور کلی، آنتروپیک مشکلات موجود در ارزیابی دقیق و دسترسی به اطلاعات مربوط به سیستم‌های هوش مصنوعی پیشرفته را به دلیل ماهیت حساس آنها برجسته می‌کند. او استدلال می کند که ارزیابی فرصت های تامین مالی، مطالعات تفسیرپذیری، و دسترسی به منابع محاسباتی برای یک اکوسیستم پاسخگویی موثر هوش مصنوعی که به نفع جامعه است، حیاتی هستند.

در ادامه چه انتظاری داریم

پاسخ‌ها به درخواست NTIA برای اظهار نظر نشان می‌دهد که در حالی که شرکت‌های هوش مصنوعی اهمیت مسئولیت‌پذیری را تشخیص می‌دهند، هنوز سوالات و چالش‌هایی درباره اجرای مؤثر و مقیاس‌بندی مکانیسم‌های پاسخگویی وجود دارد.

آنها همچنین نشان می‌دهند که هم تلاش‌های خودتنظیمی شرکت و هم سیاست‌های دولت در توسعه یک اکوسیستم پاسخگویی هوش مصنوعی قوی نقش دارند.

در ادامه، انتظار می‌رود گزارش NTIA توصیه‌هایی را برای پیشبرد اکوسیستم پاسخگویی هوش مصنوعی با استفاده از اهرم‌ها و تکیه بر تلاش‌های خودتنظیمی موجود، استانداردهای فنی و سیاست‌های دولتی ارائه کند. ورودی ذینفعان از طریق فرآیند اظهار نظر احتمالاً به شکل دادن به این توصیه‌ها کمک خواهد کرد.

با این حال، اجرای توصیه‌ها در تغییر سیاست‌ها و شیوه‌های صنعتی که می‌تواند روش توسعه، استقرار و کنترل هوش مصنوعی را تغییر دهد، نیازمند هماهنگی بین سازمان‌های دولتی، شرکت‌های فناوری، محققان و سایر ذینفعان است.

مسیر رسیدن به مسئولیت بلوغ هوش مصنوعی وعده می دهد که طولانی و دشوار باشد. اما این گام های اولیه نشان می دهد که حرکتی برای رسیدن به آن هدف وجود دارد.


تصویر ویژه: EQRoy/Shutterstock

Leave a Reply