اگر شما هم فکر میکنید که تغییرات آب و هوایی در نهایت زمین را به نابودی میکشاند، تجدید نظر کنید! در سالهای اخیر با پدیدهای به نام هوش مصنوعی مواجهیم که به گفته دانمشندان این فناوری میتواند بیش از تغییرات آب وهوایی برای زندگی بشرخطرناک باشد.
زندگی انسان مدرن در دهههای اخیر دستخوش هیجانات واگیرداری که از فناوری سرچشمه میگیرند، شده است. از ارزهای دیجیتال تا سرنوشت نامعلوم اینترنت آینده و حالا پدیدهای به نام «هوش مصنوعی مولد»، فناوری نسبتا جانداری که احتمالا تا چند سال آینده تمام ابعاد زندگی انسانها را تحت تاثیر قرار خواهد داد.
ایست؛ بازرسی
پدرخوانده هوش مصنوعی، جفری هینتون، دانمشند بریتانیایی گوگل بود که با ترک این شرکت، تحقیقات 10 ساله او بر روی ماشین هوش مصنوعی، جنبه ترسناکتری به خودش بگیرد و محققان این فناوری نوظهور، پای اظهار نظرهای آزادانه دانشمندی که خود یکی از بنیانگذاران یادگیری ماشین است، بنشینند.
چت رباتها و سایر مصنوعات تکاندهنده هوش مصنوعی، آینده شلوغی را برای این فناوری خواهند ساخت. اخیرا بیش از 27هزار نفر از افراد آگاه به فناوری یادگیری ماشین درباره هجوم هوش مصنوعی و پادآرمانشهر ماشین محوری که بعد از این هجوم پیشبینی میشود، در نامهای سرگشاده خواستار توقف 6ماهه در توسعه این فناوری شدهاند. در این نامه درج شده است: «هوش مصنوعی پیشرفته میتواند نمایانگر تغییری عمیق در تاریخ حیات روی زمین باشد و باید برای آن برنامهریزی کرد و لازم است منابع متناسب با دقت مدیریت شوند.»
خطرناکترین انتشار
هینتون در سال 2012 برای کار وارد ساختمان گوگل شد تا رهبر و الهامبخش گروهی از محققان باشد که بر فناوری یادگیری ماشینی با سرمایهای حدود 44 میلیون دلار فعالیت میکردند. پدرخوانده هوش مصنوعی در زمان حضور در گوگل بهصورت عمومی نسبت به خطری که میتواند جهان را به سمت آیندهای دیستوییایی (پادآرمانشهر) سوق دهد، متعهد نبود. هینتون در اینباره گفته: «تا همین اواخر فکر میکردم این بحران خیلی دور است. اما حالا واقعا از کاری که کردم پشیمان نیستم چون نگران آینده شدهام.» نگرانی اصلی هینتون حول محور یادگیری بسیار بهتر و سریعتر ماشینهای جدید نسبت به انسانهاست. ماشینها فورا یاد میگیرند و به یکدیگر آموزش میدهند و این ترسناک است. اما نکته ترسناکتر ماجرا اینجاست که هوش مصنوعی قدرتمند کاملا در اختیار چند شرکت بزرگ است. هینتون و 2 نفر از همکارانش در سال 1986 در دانشگاه تورنتو مقالهای منتشر کردند که نشان میداد آنها با استفاده از یک تکنیک ریاضی به نام انتشار برگشتی، مشکل توانمندی یک شبکه عصبی برای تبدیل شدن به یک یادگیرنده مدام در حال پیشرفت را حل کردهاند که البته این رویکرد با نام «یادگیری عمیق» بسیار مورد تشویق و توجه رسانهها قرار گرفت.
غول مرحله آخر
در مصاحبه سال گذشته هینتون با تامیز این نکته مطرح شد که گوگل مباشر مناسبی برای فناوری یادگیری ماشین است اما حالا که مایکروسافت موتور جستوجوی بینگ خود را با یک ربات چت تقویت کردهاست، باعث چالش تجارت اصلی گوگل شده و در ازای آن گوگل درحال رقابت برای بکارگیری همان نوع فناوریست. غولهای فناوری در رقابتی گرفتار شدهاند که توقف آن شاید غیرممکن باشد. غولهای فناوری فرصت جدیدی برای تسلط بر جهان یافتهاند و روشنفکران را از سر راه خود کنار خواهند زد. غولهای فناوری سابقه طولانی و بیتفاوتی نسبت به نیازهای جامعه دارند؛ به همین دلیل است که مداخله هینتون بسیار تاثیرگزار بود. مردی که خود قفل فناوری پرچالش یادگیری ماشینها را باز کرد و حالا تلاش میکند به آینده انسان در برابر هوش مصنوعی توجه ویژهای داشتهباشد.
مخاطرات فراگیرشدن هوش مصنوعی چیست؟
با پیشرفت شگفتانگیز فناوری هوش مصنوعی بسیاری از جنبههای زندگی به شکل شگفتانگیزی بهبود پیدا میکنند، اما هشدارهای تعداد قابل توجهی از کارشناسان این حوزه قابل تامل است. اختلال در کار، سادهترین مشکلی است که میتواند توسط یک ربات پیشبینی شود اما خطرات فاجعهبار دیگری نیز وجود دارند. هرچند درباره سطح خطرات هوش مصنوعی دیدگاه جامع و مشترکی وجود ندارد اما عموما تصور میشود که هوش مصنوعی از دو طریق میتواند خطرناک باشد:
– هوش مصنوعی برای انجام کاری مخرب برنامهریزی شود که همه کابوس هالیوودی آن را دیدهایم.
– هوش مصنوعی برای مفید بودن برنامهریزی شود اما در حین رسیدن به هدف، مسیر مخربی را انتخاب کند.
ریسکهایی که با پیچیدگی هوش مصنوعی قابل پیشبینی نیستند. درباره همین موضوع، سناریو «به حداکثر رساندن گیره کاغذ» را فیلسوف مشهوری بهنام نیک بوستروم، مطرح کرد. بوستروم میگوید: فرض کنید یک هوش مصنوعی برای تولید حداکثر تعداد ممکن گیره کاغذ توسعه پیدا کند. اگر این هوش مصنوعی به اندازه کافی باهوش باشد، میتواند کل دنیا را برای رسیدن به این هدف نابود کند. به هر حال این اخطار متوجه آینده نزدیک نیست اما خطرات نزدیکتری محتمل هستند: خودکار سازی یکی از مهمترین خطرات هوش مصنوعی محسوب میشود. سیستمهای هوش مصنوعی در بسیاری از مشاغل عملکرد بهتری نسبت به انسانها ارائه میدهند. آنها ارزانتر، دقیقتر و کارآمدتر از نیروی انسانی عمل میکنند. در تشخیص تومورها حتی از تصاویر رادیوگرافی هم بهترند و در همچنین آثار هنری جعلی را بهتر از متخصصان انسانی از آثار اصل تشخیص میدهند. بنابراین ما با کرسیهای اشغال شده مشاغل در سطوح مختلف توسط هوش مصنوعی و بیکاری تعداد زیادی از کارگران و کارشناسان مواجه خواهیم شد. این خود گام اول اختلالات شغلی در جوامع انسانی است که منجر به افزایش نابرابری اجتماعی و در نهایت یک فاجعه غریبالوقوع اقتصادی خواهد بود.
نگرانیهای امنیتی برای ایمن نگاه داشتن سیستمهای هوش مصنوعی، یکی دیگر از دغدغههای دانشمندان است. الگوریتمهای هوش مصنوعی روشی برای دفاع در برابر نگرانیهای امنیتی هستند، اما ایمنی خود هوش مصنوعی از کجا حاصل خواهد شد؟
تیغ نظارتی نهادهای نظارتی و دولتها بر حریم خصوصی شرکتهای بزرگ مشهود است. سالانه حدود 2.5 ترابایت داده توسط کاربران ایجاد میشود و الگوریتمهای پیشرفته با استفاده از این دادهها میتوانند پروفایلهای بسیاردقیقی را برای نمایش تبلیغات ایجاد کنند. از طرفی تکنولوژی تشخیص چهره آنقدر محبوب است که پلیس در کشورهای مختلف برای شناسایی مجرمان تحت تعقیب یا افراد مشکوک از عینکهای هوشمند مجهز به این نرمافزارها استفاده میکند. گسترش دامنههای این تکنولوژی میتواند منجر به گسترش رژیمهای استبدادی یا سوءاستفاده گروههایی با اهداف بدخواهانه شود.
هککردن سیستمهای شهری و امنیتی و شکستن مرزگذاریهای مختلف به یادگیری ماشینی برمیگردد. بدافزار مبتنی بر هوش مصنوعی قادر است با آزمون و خطا پیشرفته شده و مثلا برای ایجاد ترافیک یا تصادفهای رانندگی در خودروهای خودران مورد استفاده قرار بگیرد. همه اینها به معنی تحتتاثیر قرارگرفتن بیش از پیش زندگی روزمره انسان از سوی ماشین خواهد بود.
سلاحهای خودمختار سلاحهایی هستند که به جای انسانها و از سوی هوش مصنوعی کنترل میشوند و مدتهاست مورد استفاده قرار گرفتهاند. بسیاری از متخصصان فناوری از سازمان ملل خواستهاند تا راهی برای محافظت بشریت در برابر سلاحهای مستقل ایجاد کند. پهبادهای نظامی امروزه هم میتوانند با استفاده از سیستمهای تشخیص چهره، فردی را با دقت زیاد ردیابی کنند. تصمیم هومش مصنوعی درباره مرگ و زندگی در حوزههای نظامی و بدون دخالت مستقیم انسانها میتواند تبعات فاجعهباری به همراه داشته باشد.
دیپفیک روزبهروز پیشرفتهتر میشود و تشخیص جعلی بودن ویدئوها سختتر. اگرچه تکنولوژی دیپفیک درحال حاضر برای ساخت ویدئوهای جعلی از افراد مشهور مورد استفاده قرار میگیرد، اما کلاهبردارانی هم ظهور کردهاند که با استفاده از تصویر پروفایل افراد معمولی در شبکههای اجتماعی دست به ساخت ویدئوهای جعلی زدهاند تا باجخواهی کنند. ویرایش تصاویر و شبیهسازی صدا هم از انواع دیگر دیپفیک هستند که ابعاد استفاده تاریک از آن میتواند مورد تامل قرار بگیرد. در مجموع باید گفت بیشتر تکنولوژیها در طول تاریخ گاها مورد سوءاستفاده قرار گرفتهاند، اما خطراتی که با سوءاستفاده از هوش مصنوعی دامن زندگی روزمره تعداد زیادی از افراد جامعه انسانی را خواهد گرفت، بسیار قابل تحقیق است.
نویسنده: ستاره بلادی