ماشین هوشمند در خدمت بشریت یا بر ضد آن؟

اگر شما هم فکر می‌کنید که تغییرات آب و هوایی در نهایت زمین را به نابودی می‌کشاند، تجدید نظر کنید! در سال‌های اخیر با پدیده‌ای به نام هوش مصنوعی موا‌جهیم که به گفته دانمشندان این فناوری می‌تواند بیش از تغییرات آب وهوایی برای زندگی بشرخطرناک باشد.

 زندگی انسان مدرن در دهه‌های اخیر دستخوش هیجانات واگیرداری که از فناوری سرچشمه می‌گیرند، شده است. از ارزهای دیجیتال تا سرنوشت نامعلوم اینترنت آینده و حالا پدیده‌ای به نام «هوش مصنوعی مولد»، فناوری نسبتا جانداری که احتمالا تا چند سال آینده تمام ابعاد زندگی انسان‌ها را تحت تاثیر قرار خواهد داد.

ایست؛ بازرسی

پدرخوانده هوش مصنوعی، جفری هینتون، دانمشند بریتانیایی گوگل بود که با ترک این شرکت، تحقیقات 10 ساله او بر روی ماشین هوش مصنوعی، جنبه ترسناک‌تری به خودش بگیرد و محققان این فناوری نوظهور، پای اظهار نظرهای آزادانه دانشمندی که خود یکی از بنیانگذاران یادگیری ماشین است، بنشینند.

چت ربات‌ها و سایر مصنوعات تکان‌دهنده هوش مصنوعی، آینده شلوغی را برای این فناوری خواهند ساخت. اخیرا بیش از 27هزار نفر از افراد آگاه به فناوری یادگیری ماشین درباره هجوم هوش مصنوعی و پادآرمانشهر ماشین محوری که بعد از این هجوم پیش‌بینی می‌شود، در نامه‌ای سرگشاده خواستار توقف 6ماهه در توسعه این فناوری شده‌اند. در این نامه درج شده است: «هوش مصنوعی پیشرفته می‌تواند نمایانگر تغییری عمیق در تاریخ حیات روی زمین باشد و باید برای آن برنامه‌ریزی کرد و لازم است منابع متناسب با دقت مدیریت شوند.»

خطرناک‌ترین انتشار

هینتون در سال 2012 برای کار وارد ساختمان گوگل شد تا رهبر و الهام‌بخش گروهی از محققان باشد که بر فناوری یادگیری ماشینی با سرمایه‌ای حدود 44 میلیون دلار فعالیت می‌کردند. پدرخوانده هوش مصنوعی در زمان حضور در گوگل به‌صورت عمومی نسبت به خطری که می‌تواند جهان را به سمت آینده‌ای دیستوییایی (پادآرمانشهر) سوق دهد، متعهد نبود. هینتون در اینباره گفته: «تا همین اواخر فکر می‌کردم این بحران خیلی دور است. اما حالا واقعا از کاری که کردم پشیمان نیستم چون نگران آینده شده‌ام.» نگرانی اصلی هینتون حول محور یادگیری بسیار بهتر و سریع‌تر ماشین‌های جدید نسبت به انسان‌هاست. ماشین‌ها فورا یاد می‌گیرند و به یکدیگر آموزش می‌دهند و این ترسناک است. اما نکته ترسناک‌تر ماجرا اینجاست که هوش مصنوعی قدرتمند کاملا در اختیار چند شرکت بزرگ است. هینتون و 2 نفر از همکارانش در سال 1986 در دانشگاه تورنتو مقاله‌ای منتشر کردند که نشان می‌داد آنها با استفاده از یک تکنیک ریاضی به نام انتشار برگشتی، مشکل توانمندی یک شبکه عصبی برای تبدیل شدن به یک یادگیرنده مدام در حال پیشرفت را حل کرده‌اند که البته این رویکرد با نام «یادگیری عمیق» بسیار مورد تشویق و توجه رسانه‌ها قرار گرفت.

غول مرحله آخر

 در مصاحبه سال گذشته هینتون با تامیز این نکته مطرح شد که گوگل مباشر مناسبی برای فناوری یادگیری ماشین است اما حالا که مایکروسافت موتور جست‌و‌جوی بینگ خود را با یک ربات چت تقویت کرده‌است، باعث چالش تجارت اصلی گوگل شده و در ازای آن گوگل درحال رقابت برای بکارگیری همان نوع فناوری‌ست. غول‌های فناوری در رقابتی گرفتار شده‌‌اند که توقف آن شاید غیرممکن باشد. غول‌های فناوری فرصت جدیدی برای تسلط بر جهان یافته‌اند و روشنفکران را از سر راه خود کنار خواهند زد. غول‌های فناوری سابقه طولانی و بی‌تفاوتی نسبت به نیازهای جامعه دارند؛ به همین دلیل است که مداخله هینتون بسیار تاثیرگزار بود. مردی که خود قفل فناوری پرچالش یادگیری ماشین‌ها را باز کرد و حالا تلاش می‌کند به آینده انسان در برابر هوش مصنوعی توجه ویژه‌ای داشته‌باشد.

مخاطرات فراگیرشدن هوش مصنوعی چیست؟

با پیشرفت شگفت‌انگیز فناوری هوش مصنوعی بسیاری از جنبه‌های زندگی به شکل شگفت‌انگیزی بهبود پیدا می‌کنند، اما هشدارهای تعداد قابل توجهی از کارشناسان این حوزه قابل تامل است. اختلال در کار، ساده‌ترین مشکلی است که می‌تواند توسط یک ربات پیش‌بینی شود اما خطرات فاجعه‌بار دیگری نیز وجود دارند. هرچند درباره سطح خطرات هوش مصنوعی دیدگاه جامع و مشترکی وجود ندارد اما عموما تصور می‌شود که هوش مصنوعی از دو طریق می‌تواند خطرناک باشد:

– هوش مصنوعی برای انجام کاری مخرب برنامه‌ریزی شود که همه کابوس هالیوودی آن را دیده‌ایم.

– هوش مصنوعی برای مفید بودن برنامه‌ریزی شود اما در حین رسیدن به هدف، مسیر مخربی را انتخاب کند.

ریسک‌هایی که با پیچیدگی هوش مصنوعی قابل پیش‌بینی نیستند. درباره همین موضوع، سناریو «به حداکثر رساندن گیره کاغذ» را فیلسوف مشهوری به‌نام نیک بوستروم، مطرح کرد. بوستروم می‌گوید: فرض کنید یک هوش مصنوعی برای تولید حداکثر تعداد ممکن گیره کاغذ توسعه پیدا کند. اگر این هوش مصنوعی به اندازه کافی باهوش باشد، می‌تواند کل دنیا را برای رسیدن به این هدف نابود کند. به هر حال این اخطار متوجه آینده نزدیک نیست اما خطرات نزدیک‌تری محتمل هستند: خودکار سازی یکی از مهم‌ترین خطرات هوش مصنوعی محسوب می‌شود. سیستم‌های هوش مصنوعی در بسیاری از مشاغل عملکرد بهتری نسبت به انسان‌ها ارائه می‌دهند. آنها ارزان‌تر، دقیق‌تر و کارآمدتر از نیروی انسانی عمل می‌کنند. در تشخیص تومورها حتی از تصاویر رادیوگرافی هم بهترند و در همچنین آثار هنری جعلی را بهتر از متخصصان انسانی از آثار اصل تشخیص می‌دهند. بنابراین ما با کرسی‌های اشغال شده مشاغل در سطوح مختلف توسط هوش مصنوعی و بیکاری تعداد زیادی از کارگران و کارشناسان مواجه خواهیم شد. این خود گام اول اختلالات شغلی در جوامع انسانی است که منجر به افزایش نابرابری اجتماعی و در نهایت یک فاجعه غریب‌الوقوع اقتصادی خواهد بود.

نگرانی‌های امنیتی برای ایمن نگاه داشتن سیستم‌های هوش مصنوعی، یکی دیگر از دغدغه‌های دانشمندان است. الگوریتم‌های هوش مصنوعی روشی برای دفاع در برابر نگرانی‌های امنیتی هستند، اما ایمنی خود هوش مصنوعی از کجا حاصل خواهد شد؟

تیغ نظارتی نهادهای نظارتی و دولت‌ها بر حریم خصوصی شرکت‌های بزرگ مشهود است. سالانه حدود 2.5 ترابایت داده توسط کاربران ایجاد می‌شود و الگوریتم‌های پیشرفته با استفاده از این داده‌ها می‌توانند پروفایل‌های بسیاردقیقی را برای نمایش تبلیغات ایجاد کنند. از طرفی تکنولوژی تشخیص چهره آنقدر محبوب است که پلیس در کشورهای مختلف برای شناسایی مجرمان تحت تعقیب یا افراد مشکوک از عینک‌های هوشمند مجهز به این نرم‌افزارها استفاده می‌کند. گسترش دامنه‌های این تکنولوژی می‌تواند منجر به گسترش رژیم‌های استبدادی یا سوءاستفاده گروه‌هایی با اهداف بدخواهانه شود.

هک‌کردن سیستم‌های شهری و امنیتی و شکستن مرزگذاری‌های مختلف به یادگیری ماشینی برمی‌گردد. بدافزار مبتنی بر هوش مصنوعی قادر است با آزمون و خطا پیشرفته شده و مثلا برای ایجاد ترافیک یا تصادف‌های رانندگی در خودروهای خودران مورد استفاده قرار بگیرد. همه اینها به معنی تحت‌تاثیر قرارگرفتن بیش از پیش زندگی روزمره انسان از سوی ماشین خواهد بود.

سلاح‌های خودمختار سلاح‌هایی هستند که به جای انسان‌ها و از سوی هوش مصنوعی کنترل می‌شوند و مدت‌هاست مورد استفاده قرار گرفته‌اند. بسیاری از متخصصان فناوری از سازمان ملل خواسته‌اند تا راهی برای محافظت بشریت در برابر سلاح‌های مستقل ایجاد کند. پهبادهای نظامی امروزه هم می‌توانند با استفاده از سیستم‌های تشخیص چهره، فردی را با دقت زیاد ردیابی کنند. تصمیم هومش مصنوعی درباره مرگ و زندگی در حوزه‌های نظامی و بدون دخالت مستقیم انسان‌ها می‌تواند تبعات فاجعه‌باری به همراه داشته باشد.

دیپ‌فیک روز‌به‌روز پیشرفته‌تر می‌شود و تشخیص جعلی بودن ویدئوها سخت‌تر. اگرچه تکنولوژی دیپ‌فیک درحال حاضر برای ساخت ویدئوهای جعلی از افراد مشهور مورد استفاده قرار می‌گیرد، اما کلاه‌بردارانی هم ظهور کرده‌اند که با استفاده از تصویر پروفایل افراد معمولی در شبکه‌های اجتماعی دست به ساخت ویدئوهای جعلی زده‌اند تا باج‌خواهی کنند. ویرایش تصاویر و شبیه‌سازی صدا هم از انواع دیگر دیپ‌فیک هستند که ابعاد استفاده تاریک از آن می‌تواند مورد تامل قرار بگیرد. در مجموع باید گفت بیشتر تکنولوژی‌ها در طول تاریخ گاها مورد سوءاستفاده قرار گرفته‌اند، اما خطراتی که با سوءاستفاده از هوش مصنوعی دامن زندگی روزمره تعداد زیادی از افراد جامعه انسانی را خواهد گرفت، بسیار قابل تحقیق است.

نویسنده: ستاره بلادی

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *