Web Analytics Made Easy - Statcounter
به نقل از «ایسنا»
2024-04-27@02:34:42 GMT

چرا هیچ مقرراتی برای تنظیم هوش مصنوعی وضع نمی‌شود؟

تاریخ انتشار: ۹ خرداد ۱۴۰۲ | کد خبر: ۳۷۸۶۳۵۶۷

چرا هیچ مقرراتی برای تنظیم هوش مصنوعی وضع نمی‌شود؟

همه در تنظیم مقررات برای هوش مصنوعی هم نظرند و بسیاری از غول‌های فناوری جهان در این مورد هشدار داده‌اند پس چرا هنوز هیچ توافقی در مورد نحوه‌ی انجام آن صورت نگرفته است؟

به گزارش ایسنا و به نقل از وایرد، قانونگذاران و مدیران اجرایی ایالات متحده به طور یکسان می‌گویند که قوانین جدیدی برای جلوگیری از آسیب‌های هوش مصنوعی مورد نیاز است با این حال تاکنون، فهرست آرزوهای مطرح شده از فهرست قوانین پیشی گرفته است.

بیشتر بخوانید: اخباری که در وبسایت منتشر نمی‌شوند!

در حالی که هوش مصنوعی به طور جنون‌آمیزی در حال گسترش است، یک اجماع غیرمنتظره مبنی بر نیاز به تنظیم مقررات برای آن شکل گرفته است.

اکنون نه تنها دولت‌ها، بلکه افرادی که سیستم‌های هوش مصنوعی می‌سازند نیز پیشنهاد می‌کنند که برخی از قوانین جدید ممکن است در جلوگیری از آسیب‌زا شدن این فناوری مفید باشد. ایده این است که الگوریتم‌ها را در مسیر شریک و وفادار به انسانیت نگه داریم.

اگرچه از آغاز ظهور چت جی‌پی‌تی(ChatGPT)، بسیاری در دنیای فناوری پیشنهاد کرده‌اند که تنظیم قوانین کنترل‌کننده ممکن است ایده خوبی باشد، اما بیشترین درخواست از سوی تاثیرگذارترین شخصیت در حوزه‌ی هوش مصنوعی یعنی مدیر عامل شرکت OpenAI، سم آلتمن بود. او اوایل این ماه در حضور یک کمیته‌ی فرعی قضایی سنای ایالات متحده گفت: من فکر می‌کنم اگر این فناوری اشتباه پیش برود، ممکن است خیلی بد پیش برود. ما می‌خواهیم با دولت برای جلوگیری از این اتفاق همکاری کنیم.

این قطعا خبر خوشایندی برای دولت است که مدتی است روی این نظریه پافشاری می‌کند. آلتمن تنها چند روز قبل از اظهاراتش، در میان گروهی از رهبران فناوری حضور داشت که به کاخ سفید فراخوانده شده بودند تا هشدار کامالا هریس، معاون رئیس‌جمهور را در مورد خطرات هوش مصنوعی بشنوند که از این صنایع می‌خواست به یافتن راه‌حل کمک کنند.

انتخاب و اجرای آن راه حل‌ها ساده نخواهد بود. ایجاد تعادل مناسب بین نوآوری در صنعت و حمایت از حقوق شهروندان یک چالش بزرگ است. اعمال محدودیت‌ بر روی چنین فناوری نوپایی، خطر توقف پیشرفت‌های بزرگ را قبل از توسعه به همراه دارد. علاوه بر این، حتی اگر ایالات متحده، اروپا و هند از این محدودیت‌ها استقبال کنند، آیا چین نیز همین کار را خواهد کرد؟

کاخ سفید به طور غیرمعمولی در تلاش برای تشریح مقررات مربوط به هوش مصنوعی فعال بوده است. در ماه اکتبر سال ۲۰۲۲ درست یک ماه قبل از ظهور طوفانی چت جی‌پی‌تی دولت آمریکا مقاله‌ای به نام طرح اولیه‌ی منشور حقوق هوش مصنوعی منتشر کرد که نتیجه‌ یک سال آمادگی، نظرات عمومی و تمام دانشی بود که فن‌سالارها یا تکنوکرات‌ها می‌توانستند به دست آورند.

از آنجا که خوانندگان ممکن است کلمه‌ی طرح اولیه را با دستور اشتباه بگیرند، در این مقاله به صراحت در مورد محدودیت‌ها توضیح داده شده است. «طرح منشور حقوق هوش مصنوعی غیر الزامی است و سیاست دولت ایالات متحده را تشکیل نمی‌دهد.»

این منشور حقوق هوش مصنوعی نسبت به آنچه در قانون اساسی ایالات متحده از جمله اسلحه، آزادی بیان و روند قانونی وجود دارد، کمتر الزامی و بحث برانگیز است. بلکه در عوض نوعی فهرست آرزوهای فانتزی است که برای خنثی کردن یک لبه‌ی شمشیر دو لبه‌ی پیشرفت طراحی شده است.

 از آنجایی که این طرح اولیه به خوبی اهداف قوانین ممکن را به طور خلاصه شرح می‌دهد به برخی نکات کلیدی آن می‌پردازیم.

افراد نباید با تبعیض الگوریتم‌ها مواجه شوند و سیستم‌ها باید به روشی عادلانه استفاده و طراحی شوند. افراد باید از طریق محافظ‌های داخلی در برابر داده‌های توهین آمیز در امان باشند و باید در مورد نحوه‌ی استفاده از داده‌های مربوط به خودشان اختیار عمل داشته باشند. افراد باید بدانند که یک سیستم خودکار در حال استفاده است و درک کنند که چگونه و چرا در نتایجی که بر آن‌ها تاثیر می‌گذارند کمک می‌کند. افراد باید بتوانند، در صورت لزوم، انصراف دهند و به فردی دسترسی داشته باشند که بتواند به سرعت مشکلاتی را که با آن مواجه می‌شوند، بررسی و برطرف کند.

تک تک این نکات به طور بالقوه می‌توانند ما را در مرزهای واقعی که ممکن است برای کاهش جنبه‌ی تاریک هوش مصنوعی در نظر بگیریم راهنمایی کنند.

مواردی همچون اشتراک‌گذاری آنچه در آموزش مدل‌های زبان بزرگ مانند مدل‌های پشتیبان چت جی‌پی‌تی انجام می‌شود، و امکان انصراف برای کسانی که نمی‌خواهند محتوایشان بخشی از آنچه مدل زبانی بزرگ به کاربران ارائه می‌دهد، باشد. قوانینی علیه تعصب داخلی و قوانین ضد انحصار که چند شرکت غول پیکر را از ایجاد یک گروه هوش مصنوعی که تقریبا تمام اطلاعات دریافتی ما را یکسان‌سازی می‌کند باز می‌دارد و حفاظت از اطلاعات شخصی افراد که توسط محصولات هوش مصنوعی استفاده می‌شود می‌توانند کمک کننده باشند.

خواندن این فهرست همچنین دشواری تبدیل پیشنهادهای الهام بخش به قوانین الزامی واقعی را نشان می‌دهد.

وقتی به نکات طرح اولیه کاخ سفید دقت می‌کنید، مشخص می‌شود که آنها فقط در مورد هوش مصنوعی صدق نمی‌کنند، بلکه تقریبا همه چیز در حوزه‌ی فناوری را شامل می‌شوند. به نظر می‌رسد که هر یک از آنها حقوق کاربر را در بر می‌گیرند. فناوری‌های بزرگ منتظر هوش مصنوعی مولد نمانده بودند تا الگوریتم‌های ناعادلانه، سیستم‌های غیرشفاف، داده‌های توهین آمیز و عدم امکان انصراف را توسعه دهد.

در جلسه‌ی استماع سنایی که آلتمن در آن صحبت کرد، سناتورها همگی جملاتی مشابه گفتند. وقتی نوبت به تنظیم مقررات برای رسانه‌های اجتماعی رسید، اشتباه پیش رفتیم، پس بیایید در مورد هوش مصنوعی اشتباه را تکرار نکنیم.

اما هیچ قانون مرور زمانی برای وضع قوانین برای جلوگیری از سوء استفاده‌های قبلی وجود ندارد. قانون مرور زمان اشاره به قوانینی دارد که توسط قانون‌گذار تعریف می‌شود و به زمانی گفته می‌شود به موجب قانون پس از انقضای آن مدت، تعقیب فرد و مسئله قانونی موقوف خواهد شد.  

 میلیاردها نفر، از جمله تقریبا همه افراد در ایالات متحده که امکانات لازم برای استفاده از تلفن هوشمند را دارند و هنوز در رسانه‌های اجتماعی حضور دارند، مورد آزار و اذیت قرار می‌گیرند و حریم خصوصی آنها به خطر می‌افتد. هیچ چیز مانع از سخت‌گیری کنگره در قبال این شرکت‌ها و بالاتر از همه، تصویب قوانین حفظ حریم خصوصی نمی‌شود.

ایجاد تعادل مناسب بین نوآوری در صنعت و حمایت از حقوق شهروندان یک چالش بزرگ است. اعمال محدودیت‌ بر روی چنین فناوری نوپایی، خطر توقف پیشرفت‌های بزرگ را قبل از توسعه به همراه دارد.این حقیقت که کنگره این کار را انجام نداده است، چشم‌انداز لایحه‌ی هوش مصنوعی را با تردید جدی مواجه می‌کند. جای تعجب نیست اگر برخی تنظیم کننده‌های مقررات، به ویژه لینا خان رئیس کمیسیون فدرال تجارت، منتظر قوانین جدید نیستند. او ادعا می‌کند که قانون فعلی صلاحیت قضایی زیادی را برای آژانس او فراهم می‌کند تا با مسائل مربوط به تعصب، رفتار ضدرقابتی و تجاوز به حریم خصوصی محصولات جدید هوش مصنوعی مواجه شود.

در همین حال، دشواری ارائه قوانین جدید و بزرگی کاری که باید انجام شود در این هفته زمانی که کاخ سفید اطلاعات جدیدی در مورد منشور حقوق هوش مصنوعی منتشر کرد، مورد توجه قرار گرفت. توضیح داده شده است که دولت بایدن تلاش زیادی برای ارائه یک استراتژی ملی هوش مصنوعی می‌کند اما ظاهرا «اولویت‌های ملی» در آن استراتژی هنوز مشخص نشده است.

اکنون کاخ سفید از شرکت‌های فناوری و سایر ذینفعان هوش مصنوعی همراه با عموم مردم می‌خواهد تا به ۲۹ سؤال در مورد مزایا و خطرات هوش مصنوعی پاسخ دهند.

 همان‌طور که کمیته فرعی سنا از آلتمن و همکارانش خواست تا مسیری رو به جلو پیشنهاد کنند، دولت نیز از شرکت‌ها و مردم می‌خواهد ایده‌هایی ارائه دهند.

انتهای پیام

منبع: ایسنا

کلیدواژه: هوش مصنوعی قوانین دانشگاه تهران جهاد دانشگاهی جهاد دانشگاهی 1402 پژوهشگاه رویان نشان عالی دانش دوازدهمین آیین اعطای تندیس ملی فداکاری آیین اعطای تندیس ملی فداکاری دانشجویان ایران تندیس ملی فداکاری دانشگاه تهران جهاد دانشگاهی جهاد دانشگاهی 1402 پژوهشگاه رویان ایالات متحده ی هوش مصنوعی قوانین جدید طرح اولیه ی فناوری کاخ سفید

درخواست حذف خبر:

«خبربان» یک خبرخوان هوشمند و خودکار است و این خبر را به‌طور اتوماتیک از وبسایت www.isna.ir دریافت کرده‌است، لذا منبع این خبر، وبسایت «ایسنا» بوده و سایت «خبربان» مسئولیتی در قبال محتوای آن ندارد. چنانچه درخواست حذف این خبر را دارید، کد ۳۷۸۶۳۵۶۷ را به همراه موضوع به شماره ۱۰۰۰۱۵۷۰ پیامک فرمایید. لطفاً در صورتی‌که در مورد این خبر، نظر یا سئوالی دارید، با منبع خبر (اینجا) ارتباط برقرار نمایید.

با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت «خبربان» مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویر است، مسئولیت نقض حقوق تصریح شده مولفان در قانون فوق از قبیل تکثیر، اجرا و توزیع و یا هر گونه محتوی خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.

خبر بعدی:

فناوری شبیه سازی Voice Engine چه خطراتی دارد؟

آزمایش‌کنندگان اولیه فناوری Voice Engine پذیرفته اند تا بدون رضایت افراد هویت آنها جعل نشود و توضیح دادند که صدا‌ها توسط هوش مصنوعی ایجاد شده‌اند.

اخیراً نوع جدیدی از دیپ فیک معروف به «کلونینگ صدا» ظاهر شده است که از هوش مصنوعی (AI) برای تقلید صدای شما استفاده می‌کند.

 OpenAI، سازنده ChatGPT، در توسعه از نرم افزار شبیه سازی صوتی جدیدتر است، اما آن را برای عموم منتشر نمی‌کند.

شرکت OpenAI فناوری Voice Engine خود را جمعه گذشته رونمایی کرد. این فناوری مشکوک می‌تواند صدای هر کسی را تنها در ۱۵ ثانیه پس از سخنرانی ضبط شده کپی کند.

شرکت OpenAI استفاده عمومی از این فناوری را "بسیار خطرناک" در نظر گرفت.

این شرکت در بیانیه‌ای گفت: ما می‌دانیم که تولید صوتی که صدای مردم را تقلید می‌کند، خطرات قابل‌توجهی را به همراه دارد، و به‌ویژه در سال‌های انتخاباتی مهم است.

OpenAI توضیح داد که قصد دارد این فناوری را با برخی آزمایش کند، "اما در حال حاضر آن را به خاطر خطرات بالقوه‌ای که دارد، در مقیاس بزرگ منتشر نخواهد کرد".

همچنین توضیح داد که آزمایش‌کنندگان اولیه Voice Engine موافقت کردند که بدون رضایت آنها جعل هویت افراد را جعل نکنند و اینکه این صدا‌ها توسط هوش مصنوعی ایجاد شده‌اند.

تعدادی از استارت‌آپ‌ها در حال حاضر فناوری بازتولید صدا را می‌فروشند که برخی از آنها در دسترس عموم یا مشتریان تجاری منتخب مانند استودیو‌های سرگرمی است.

منبع: المیادین

باشگاه خبرنگاران جوان علمی پزشکی فناوری

دیگر خبرها

  • معرفی مراکز برتر مشاوره و سبک زندگی دانشگاه‌های کشور
  • هوش مصنوعی توانست ویرایش ژنی را هدفمند کند
  • تشخیص گرایش سیاسی افراد از روی چهره‌شان توسط هوش مصنوعی
  • فناوری در خدمت جنایت
  • نظم جهانی در آستانه فروپاشی است
  • چاقوی هوش مصنوعی چگونه نظام سلامت را جراحی می‎‌کند
  • فناوری شبیه سازی Voice Engine چه خطراتی دارد؟
  • نوآوری‌های ادامه‌دار با کمک هوش مصنوعی / ساخت دوربین و سمعک پردازشگر صدا و تصویر
  • «پوتین» با هوش مصنوعی بازیگر شد
  • دهقانی فیروزآبادی: «مرکز ملی هوش مصنوعی» به زودی تأسیس می‌شود