برای جلوگیری از درز اطلاعات، فناوری بزرگ استفاده از چت ربات های هوش مصنوعی را برای کارکنان خود محدود می کند


زمان رو به اتمام است زیرا دولت ها و جوامع فناوری در سراسر جهان درباره سیاست های هوش مصنوعی بحث می کنند. نگرانی اصلی محافظت از بشریت در برابر اطلاعات نادرست و تمام خطرات ناشی از آن است.

و اکنون که ترس ها در مورد حفظ حریم خصوصی داده ها هستند، بحث داغ شده است. آیا تا به حال به خطرات به اشتراک گذاری اطلاعات خود با استفاده از ChatGPT، Bard یا سایر ربات های چت هوش مصنوعی فکر کرده اید؟

اگر آن زمان این کار را نمی کردید، شاید هنوز نمی دانستید که غول های فناوری اقدامات جدی برای جلوگیری از نشت انجام داده اند.

در اوایل ماه مه، پس از افشای تصادفی داده‌های حساس به ChatGPT، سامسونگ به کارکنان خود از سیاست داخلی جدیدی اطلاع داد که ابزارهای هوش مصنوعی را در دستگاه‌های فعال در شبکه‌هایش محدود می‌کند.

این شرکت در حال بررسی اقداماتی برای ایجاد یک محیط امن برای استفاده ایمن از هوش مصنوعی مولد برای افزایش بهره‌وری و کارایی کارکنان است. یکی از سخنگویان سامسونگ به TechCrunch گفت.

و آنها همچنین توضیح دادند که شرکت به طور موقت استفاده از تولید هوش مصنوعی از طریق دستگاه های شرکت را تا زمانی که اقدامات امنیتی آماده شود محدود خواهد کرد.

غول دیگری که اقدام مشابهی انجام داد اپل بود. به گفته WSJ، رقیب سامسونگ نیز نگران افشای اطلاعات محرمانه است. بنابراین، محدودیت های آنها شامل ChatGPT و همچنین برخی از ابزارهای هوش مصنوعی است که برای نوشتن کد در هنگام توسعه چنین فناوری استفاده می شود.

در اوایل سال جاری، یک وکیل آمازون از کارمندان خواست که هیچ اطلاعات یا کدی را با چت ربات‌های هوش مصنوعی به اشتراک نگذارند، پس از اینکه شرکت پاسخ‌های ChatGPT مشابه داده‌های داخلی آمازون را یافت.

علاوه بر فناوری‌های بزرگ، بانک‌هایی مانند بانک آمریکا و دویچه بانک نیز اقدامات محدودکننده‌ای را در داخل برای جلوگیری از درز اطلاعات مالی اعمال می‌کنند.

و لیست همچنان در حال رشد است. حدس بزن چی شده! حتی گوگل هم وارد این ماجرا شد.

تو گوگل هم هستی؟

به گفته منابع ناشناس رویترز هفته گذشته، Alphabet Inc. (والدین گوگل) به کارمندان خود توصیه کرده است که اطلاعات محرمانه را در چت ربات های هوش مصنوعی وارد نکنند. از قضا، این شامل هوش مصنوعی خود آنها، Bard نیز می شود که در ماه مارس گذشته در ایالات متحده راه اندازی شد و در حال انتشار به 180 کشور دیگر به 40 زبان است.

تصمیم گوگل از کشف محققان ناشی می شود که چت ربات ها می توانند داده های وارد شده از طریق میلیون ها درخواست را بازتولید کنند و در دسترس بازبین قرار دهند.

آلفابت به مهندسان خود هشدار داد که از تزریق کد به ربات‌های چت خودداری کنند زیرا هوش مصنوعی می‌تواند آن‌ها را تکرار کند و احتمالاً اطلاعات محرمانه فناوری آنها را درز کند. ناگفته نماند که آنها رقیب هوش مصنوعی خود، ChatGPT را ترجیح می دهند.

گوگل تأیید می کند که قصد دارد در مورد محدودیت های فناوری خود شفاف باشد و اعلامیه حریم خصوصی خود را به روز می کند و از کاربران می خواهد “اطلاعات محرمانه یا حساس را در مکالمات خود با برد لحاظ نکنند.”

100k+ حساب ChatGPT در بازار تاریک وب

عامل دیگری که می تواند در معرض داده های حساس قرار گیرد این است که با محبوبیت بیشتر چت ربات های هوش مصنوعی، کارمندان در سراسر جهان از آنها برای ساده کردن روال خود استفاده می کنند. بیشتر اوقات بدون هیچ گونه احتیاط و نظارت.

دیروز، Group-IB، یک رهبر جهانی مستقر در سنگاپور در راه‌حل‌های امنیت سایبری، اعلام کرد که بیش از 100000 حساب ChatGPT در معرض خطر را کشف کرده‌اند که به اطلاعات کاربری ذخیره‌شده در گزارش‌های خود آلوده شده‌اند. این اطلاعات سرقت شده از سال گذشته در بازارهای غیرقانونی در وب تاریک معامله شده است. آنها تاکید کردند که ChatGPT به‌طور پیش‌فرض، تاریخچه درخواست‌ها و پاسخ‌های هوش مصنوعی را ذخیره می‌کند و فقدان مراقبت‌های اساسی، بسیاری از شرکت‌ها و کارمندان آنها را در معرض دید قرار می‌دهد.

دولت ها مقرراتی را وضع می کنند

این فقط شرکت ها نیستند که از نشت اطلاعات از هوش مصنوعی می ترسند. در ماه مارس، پس از شناسایی یک نقض داده در OpenAI که به کاربران اجازه می داد عناوین چت سایر کاربران ChatGPT را مشاهده کنند، ایتالیا به OpenAi دستور داد پردازش داده های کاربران ایتالیایی را متوقف کند.

این باگ در ماه مارس توسط OpenAi تایید شد. ما یک مشکل جدی در ChatGPT داشتیم که دلیل آن یک اشکال در یک کتابخانه منبع باز بود که قبلاً یک پچ برای آن منتشر شده است و ما به تازگی آزمایش را به پایان رسانده ایم. درصد کمی از کاربران توانستند عناوین تاریخچه مکالمه سایر کاربران را ببینند. ما نسبت به آن احساس وحشتناکی داریم. سام آلتمن در حساب توییتر خود گفت در این زمان.

بریتانیا در وب سایت رسمی خود یک کتاب سفید در مورد هوش مصنوعی منتشر کرد که برای ایجاد نوآوری مسئولانه و اعتماد عمومی با در نظر گرفتن این پنج اصل راه اندازی شده است:

  • ایمنی، امنیت و سلامت؛
  • شفافیت و توضیح پذیری؛
  • عدالت؛
  • مسئولیت پذیری و حاکمیت؛
  • و قابل اعتراض و جبران خسارت.

همانطور که می بینیم، با حضور بیشتر و بیشتر هوش مصنوعی در زندگی ما، به ویژه با سرعت ظاهر شدن، نگرانی های جدیدی به طور طبیعی ایجاد می شود. اقدامات امنیتی ضروری می شود زیرا توسعه دهندگان برای کاهش خطرات بدون به خطر انداختن تکامل چیزی که ما قبلاً آن را به عنوان یک گام بزرگ در آینده می شناسیم، تلاش می کنند.

آیا می خواهید در مورد بهترین شیوه های بازاریابی به روز بمانید؟ من به شدت به شما توصیه می کنم مشترک The Beat شوید، خبرنامه تعاملی Rock Contents. ما تمام گرایش‌های مهم در چشم‌انداز بازاریابی دیجیتال را پوشش می‌دهیم. آنجا میبینمت!