پیشرفت هوش مصنوعی در هر حوزه ای می تواند انقلابی ایجاد کرده یا آن صنعت را به طور کلی مختل کند! همان قدر که هوش مصنوعی می تواند بسیاری از جنبه های زندگی انسان را بهبود ببخشد؛ خطر هوش مصنوعی چالشی است که از سرعت پیشرفت این علم جدید، می کاهد.
اما چطور ممکن است که هوش مصنوعی برای انسان خطرآفرین شود؟! ما از نبرد بین ربات ها و انسان که در فیلم های علمی تخیلی به نمایش گذاشته می شوند، حرفی نمی زنیم! این خطر شاید در ظاهر بزرگ نباشد؛ اما می تواند به قیمت از دست دادن هویت انسان باشد. همراه ما باشید تا با خطرهای این علم جدید بیشتر آشنا شویم.
خطر هوش مصنوعی چگونه انسان را تهدید می کند؟!
هوش مصنوعی روز به روز پیچیده تر شده و به بالطبع احتمال خطرآفرینی آن برای انسان بیشتر می شود. این خطرات از اختلال های جزئی در امور مختلف گرفته تا خطرات فاجعه بار را در بر می گیرند. اما این علم به هدف خطرآفرینی ایجاد نشده و پیش نمی رود. فقط در دو صورت ممکن است هوش مصنوعی خطرناک باشد:
• از هوش مصنوعی تعمدا برای انجام کارهای مخرب استفاده کنند.
• در حین انجام یک کار مفید و یک هدف سودمند، هوش مصنوعی به بیراهه رفته و خطرآفرین شود.
یک فرضیه کلاسیک وجود دارد که خطرآفرینی هوش مصنوعی را به بار انتقاد می گیرد. این فرضیه می گوید اگر یک هوش مصنوعی فقط برای «تولید حداکثری گیره کاغذ» طراحی شده باشد، می تواند کل جهان را برای رسیدن به هدف خود نابود کند! این خطرات واقعا فاجعه بار به نظر می رسند؛ با این حال 5 خطر هوش مصنوعی از اتفاقات فاجعه بار به ما نزدیک تر هستند که در ادامه این خطرات را می شناسیم.
1. اتوماسیون شغلی و اختلال در کارها
یکی از مهم ترین اهداف هوش مصنوعی را باید اتوماسیون یا خودکارسازی روندهای تکراری در مشاغل دانست. روند اتوماسیون از کارخانه های تولید انبوه گرفته تا اتومبیل های خودران، به سرعت در حال پیشروی است. همین پیشروی می تواند 36 میلیون جایگاه شغلی را در سال های آینده به طور کلی از روی زمین محو کند!
واقعیت این است که هوش مصنوعی دقیق تر از انسان عمل کرده و صد البته هزینه کمتری هم نسبت به نیروی کار انسانی دارد. بنابراین دلیلی برای مقابله با این حقیقت نیست. اما نیروی کاری که شغل خود را از دست می دهد، اعتبار یا تخصص لازم برای امرار معاش در شرایط تازه ایجاد شده را ندارد. این موضوع می تواند فقر اجتماعی را بیش از پیش دامن بزند.
2. چالش های امنیت و حریم خصوصی
در سال 2020 دولت انگلستان طی گزارشی، ضرورت به کار گیری هوش مصنوعی برای امنیت سایبری این کشور را مطرح کرد. با این حال یک سوال پیش می آید: چطور می توان از امنیت هوش مصنوعی مطمئن بود؟! این که ما اطلاعات مهم را برای داشتن امنیت بیشتر به AI بسپاریم، می تواند ما را با خطر هوش مصنوعی روبرو کند.
از طرف دیگر هوش مصنوعی می تواند حریم خصوصی افراد حقیقی و حقوقی بسیاری را تهدید کند. در حال حاضر 2.5 میلیون ترابایت اطلاعات از افراد و شرکت های مختلف به صورت آنلاین وجود دارد. الگوریتم های هوش مصنوعی با توجه به این داده ها می توانند پروفایل های دقیقی برای تبلیغات طراحی کنند که مصرف گرایی یا هنجارهای نامناسب اجتماعی را تشویق می کند.
موضوع دیگر تکنولوژی تشخیص چهره هوش مصنوعی است که در حال حاضر برای شناسایی مجرمان استفاده می شود؛ با این حال این تکنولوژی می تواند در کشورها یا گروه های استبدادی مشکلاتی را بیافریند.
3. بدافزارهای هوش مصنوعی
خطر هوش مصنوعی در هک کردن سیستم های امنیتی و هک اطلاعات رمزنگاری شده، هر روز بیشتر می شود. الگوریتم های یادگیری ماشینی می توانند با شناخت الگوهای رمزنگاری، خودشان را تقویت کرده و از هر الگوریتم حرفه ای رمزگذاری پیشی بگیرند. شاید فکر کنید این بدافزارها به زندگی مردم عادی کاری ندارند؛ اما از همین بدافزارها می توان در هر وسیله هوشمندی استفاده کرد. به عنوان مثال با گسترش اتومبیل های خودران، تصادفات جاده ای یا ترافیک های برنامه ریزی شده می تواند از خطرات این هوش جدید باشد که هر فردی را تهدید می کند.
4. سلاح های خودمختار
روند اتوماسیون هوش مصنوعی به سلاح های مختلف نیز رسیده است. سلاح های خودمختار، سلاح هایی هستند که توسط سیستم های هوش مصنوعی کنترل شده و با استفاده از داده های دقیق مثل تشخیص صدا یا چهره، جان افراد را تهدید می کنند. در حال حاضر بسیاری از کشورها به این سلاح ها دست یافته و در نیروی نظامی خود تا حدی از آنها استفاده می کنند.
خطر هوش مصنوعی با پیشرفت این سلاح ها بیش از پیش می شود. به خصوص اگر فناوری یادگیری ماشینی به آن اضافه شود. هوش مصنوعی فرصتی برای تغییر عقیده یا زندگی دوباره به انسان ها نخواهد داد و این موضوع می تواند در آینده ای نه چندان دور، فاجعه های وحشتناکی را بیافریند. شاید هیتلر جدید در قاموس هوش مصنوعی، رستاخیز دوباره ای داشته باشد!
5. دیپ فیک و امنیت سیاسی؛ گسترش اخبار جعلی
فناوری Deep Fake یا جعل عمیق روز به روز پیشرفته تر می شود. با وجود این فناوری می توان اخبار جعلی را از زبان چهره های برتر و شناخته شده در هر صنعتی شنید. با وجود پیشرفتی که هوش مصنوعی در این زمینه داشته، تشخیص ویدیوهای جعلی کار ساده ای نیست. بنابراین خطر هوش مصنوعی در این زمینه می تواند گسترش اخباری باشد که واقعیت ندارد. در صورتی که افراد یا گروه ها به هدف خاصی شروع به پخش این اخبار کنند، امنیت سیاسی کشورها به خطر افتاده و کلاه برداری ها در سطح گسترده ای انجام می شود.
در حال حاضر نیز بسیاری از افراد با استفاده از ویدیوهای جعلی به باج گیری از گروه های مشخص مشغول هستند و پرونده هایی که در اثر این کلاه برداری ها شکل می گیرد، به راحتی قابل حل و فصل نخواهند بود.
هوش مصنوعی همچنان می تازد!
با پیشرفت هوش مصنوعی، کارایی و کاربرد آن هم بیش از پیش می شود. این علم جدید می تواند در درمان بیماری ها و یا حتی تشخیص زودهنگام بیماری های ناشناخته به کمک انسان بیاید. هدف از هوش مصنوعی تهسیل زندگی بشر است؛ با این حال نباید از پتانسیل خطر هوش مصنوعی غافل شد. تهدیدهای این علم جدید از امنیت سیاسی گرفته تا حریم خصوصی و از بین رفتن مشاغل را تحت تاثیر قرار می دهد.
در حال حاضر تنها با افزایش دانایی در این زمینه می توان از این تهدیدها در امان بود؛ با این حال تضمینی برای آینده هوش مصنوعی و رقابت آن با گونه بشر وجود ندارد!
دیدگاه خود را بنویسید