۵ خطر بزرگ هوش مصنوعی که بسیار به ما نزدیک هستند
هوش مصنوعی وارد انواع و اقسام صنایع شده و روزبهروز نقش مهمتری پیدا میکند. با پیشرفت شگفتانگیز این فناوری، این امکان را دارد که بسیاری از جنبههای زندگی را به طور شگفتانگیزی بهبود ببخشد اما از طرف دیگر نباید خطرات احتمالی آن را نادیده بگیریم.
با توجه به اینکه تعداد قابل توجهی از کارشناسان در مورد خطرات احتمالی هوش مصنوعی هشدار میدهند، بهتر است به این هشدارها توجه کنیم. از طرف دیگر، برخی مدعی هستند که چنین دیدگاههایی صرفاً برای ایجاد جاروجنجال مطرح میشوند و هیچ خطر فوری از جانب هوش مصنوعی وجود ندارد.
بنابراین آیا نگرانیهای مربوط به هوش مصنوعی جدی هستند یا اینکه باید آنها را نادیده بگیریم؟ در این مقاله به ۵ خطر مهم هوش مصنوعی اشاره کنیم که در آیندهی نزدیک میتوانند مشکلات زیادی را ایجاد کنند.
هوش مصنوعی چگونه میتواند خطرناک باشد؟
این فناوری روزبهروز پیچیدهتر میشود و همین پیشرفت میتواند منجر به بروز خطرات مختلفی از جمله موارد ساده (اختلال در کار) تا خطرات فاجعهبار شود. با توجه به اختلاف نظری که در مورد این موضوع وجود دارد، در رابطه با سطح خطرات آن هم یک دیدگاه مشترک و جامع دیده نمیشود. عموماً تصور میشود که هوش مصنوعی از دو طریق میتواند خطرناک باشد:
- این فناوری برای انجام کاری مخرب برنامهریزی شود.
- این فناوری برای مفید بودن برنامهریزی شود اما در حین رسیدن به هدف خود کار مخربی انجام دهد.
این ریسکها با پیچیدگی نرمافزار هوش مصنوعی تقویت میشوند. سالها قبل یکی از فیلسوفهای مشهور به نام نیک بوستروم کتابی را منتشر کرد که در آن یک سناریو تحت عنوان «به حداکثر رساندن گیره کاغذ» مطرح شد. او میگوید فرض کنید یک هوش مصنوعی برای تولید حداکثر تعداد ممکن گیره کاغذ توسعه پیدا کند. اگر این هوش مصنوعی به اندازهی کافی باهوش باشد، میتواند کل دنیا را برای رسیدن به این هدف نابود کند.
اما به غیر از این خطرات فاجعهآور که به نظر نمیرسد در آیندهی نزدیک تحقق پیدا کنند، میتوانیم به ۵ خطر فوری اشاره کنیم که میتوانند طی همین چند سال آینده مشکلات زیادی را ایجاد کنند.
۱. اتوماسیون شغلها
اتوماسیون یا خودکارسازی از جمله مهمترین خطرات هوش مصنوعی برای شغلهای مختلف است. از کارخانهها گرفته تا اتومبیلهای خودکار، آغاز اتوماسیون به دههها قبل برمیگردد ولی روزبهروز شتاب آن بیشتر میشود.
مساله این است که برای بسیاری از کارهای مختلف، سیستمهای هوش مصنوعی نسبت به انسانها عملکرد بهتری دارند. روی هم رفته در این موارد ارزانتر، دقیقتر و کارآمدتر از انسانها عمل میکنند. به عنوان مثال، هوش مصنوعی در تشخیص جعل آثار هنری بهتر از متخصصان انسانی عمل میکند و حالا این سیستمها در زمینهی تشخیص تومور از طریق تصاویر رادیوگرافی هم در حال بهتر شدن هستند.
از طرف دیگر، وقتی که هوش مصنوعی بسیاری از شغلها را تصرف کند، بخش بزرگی از کارگران که شغل خود را از دست دادهاند به دلیل فقدان تخصص موردنیاز یا عدم وجود اعتبارات قادر به پیدا کردن شغل جدیدی نخواهند بود. با پیشرفت سیستمهای هوش مصنوعی، مهارتهای آنها برای انجام کارهای مختلف بهتر از انسانها خواهد شد و اختلال در کار هم میتواند منجر به افزایش نابرابری اجتماعی و حتی یک فاجعهی اقتصادی شود.
۲. امنیت و حریم خصوصی
مشکل اصلی این است که با افزایش نگرانیهای امنیتی مبتنی بر هوش مصنوعی، تدابیر پیشگیری با استفاده از هوش مصنوعی هم افزایش پیدا میکنند. این مشکل همچنین این سوال را مطرح میکند که ما چگونه سیستمهای هوش مصنوعی را ایمن میکنیم؟ اگر از الگوریتمهای هوش مصنوعی برای دفاع در برابر نگرانیهای امنیتی استفاده میکنیم، باید در رابطه با ایمن بودن خود سیستم هوش مصنوعی هم اطمینان حاصل کنیم.
در زمینهی حریم خصوصی هم شرکتهای بزرگ طی چند سال گذشته در این زمینه تا حد قابل توجهی زیر تیغ دولتها و نهادهای نظارتی قرار گرفتهاند. باید خاطرنشان کنیم روزانه حدود ۲.۵ ترابایت داده توسط کاربران ایجاد میشود و الگوریتمهای پیشرفته با استفاده از این دادهها میتوانند پروفایلهای بسیار دقیقی را برای نمایش تبلیغات ایجاد کنند.
از دیگر نگرانیها میتوانیم به تکنولوژیهای تشخیص چهره اشاره کنیم و گزارشها حاکی از آن است که برخی از نیروهای پلیس در کشورهای مختلف برای شناسایی مجرمان تحت تعقیب یا افراد مشکوک از عینکهای هوشمند مجهز به نرمافزار تشخیص چهره استفاده میکنند. چنین تکنولوژیهایی میتوانند منجر به گسترش رژیمهای استبدادی شوند یا اینکه افراد یا گروههایی با اهداف بدخواهانه از آنها سوءاستفاده کنند.
۳. بدافزار هوش مصنوعی
هوش مصنوعی به طور فزایندهای در هک کردن سیستمهای امنیتی و شکستن رمزگذاریهای مختلف بهتر میشود. بخشی از این موضوع به تکامل الگوریتمهای یادگیری ماشینی برمیگردد. این یعنی بدافزار مبتنی بر هوش مصنوعی با آزمون و خطا بهتر میشود و با گذر زمان خطر آن هم افزایش پیدا میکند.
برخی فناوریهای هوشمند (مانند اتومبیلهای خودران) اهداف ایدئالی برای این نوع بدافزارها هستند و مثلا میتوانند برای ایجاد تصادف رانندگی یا ایجاد ترافیک مورد استفاده قرار بگیرند. با افزایش وابستگی ما به فناوریهای هوشمند متکی به اینترنت، زندگی روزمرهی ما هم بیش از پیش تحت تأثیر خطر اختلال قرار میگیرد.
۴. سلاحهای خودمختار
سلاحهای خودمختار-سلاحهایی که به جای انسانها توسط سیستمهای هوش مصنوعی کنترل میشوند-مدتهاست که انجام وظیفه میکنند. در همین زمینه باید به هشدار صدها متخصص فناوری اشاره کنیم که از سازمان ملل خواستهاند تا راهی برای حفاظت از بشریت در برابر سلاحهای مستقل ایجاد کند.
نیروهای نظامی کشورهای مختلف در حال حاضر به سلاحهای مبتنی بر هوش مصنوعی یا سلاحهایی که تا حدی به این سیستمها متکی هستند، دسترسی دارند. به عنوان مثال میتوانیم به پهپادهای نظامی اشاره کنیم که مثلا با بهرهگیری از سیستمهای تشخیص چهره میتوانند یک فرد را با دقت زیادی ردیابی کنند.
اما وقتی که به الگوریتمهای هوش مصنوعی اجازه دهیم بدون دخالت انسان در مورد مرگ و زندگی تصمیمگیری کنند، چه اتفاقی میافتد؟ چنین قابلیتهایی میتوانند تبعات فاجعهباری به همراه داشته باشند.
۶. دیپفیک و اخبار جعلی
تکنولوژی دیپفیک روزبهروز پیشرفتهتر میشود و تشخیص جعلی بودن ویدیوهای مبتنی بر آن دشوارتر. اگرچه در حال حاضر این تکنولوژی عمدتاً برای ساخت ویدیوهای جعلی از افراد مشهور مورد استفاده قرار میگیرد اما همین حالا هم برخی کلاهبرداران با استفاده از تصویر پروفایل افراد معمولی در شبکههای اجتماعی ویدیوهای جعلی از آنها درست میکنند تا بتوانند باج دریافت کنند. علاوه بر این، باید به استفاده از هوش مصنوعی برای ویرایش تصاویر و شبیهسازی صدا هم اشاره کنیم که میتوانند تأثیر زیادی بر جامعه داشته باشند.
سخن آخر
با پیشرفت هوش مصنوعی، کاربردهای آن هم بیشتر میشود. اما متأسفانه یک تکنولوژی جدید قدرتمند همواره در معرض خطر سوءاستفاده قرار دارد. این خطرات تمام جنبههای زندگی روزمرهی ما را تحت تأثیر قرار میدهند؛ از حریم خصوصی و امنیت سیاسی گرفته تا اتوماسیون شغلها. اولین گام در کاهش خطرات هوش مصنوعی این است که تصمیم بگیریم این فناوری در چه موقعیتهایی استفاده شود و در چه شرایطی از استفاده از آن اجتناب کنیم.
شما در مورد این موضوع چه فکر میکنید؟ آیا هوش مصنوعی واقعا خطرات جدی به همراه دارد یا اینکه چنین هشدارهایی را چندان نباید جدی گرفت؟ نظرات خود را در بخش کامنتها با ما و دیگران در میان بگذارید.
منبع: دیجیمگ
ارسال نظر