الگوریتم های یادگیری ماشینی و فناوری های تقویت کننده AI در دهه های اخیر با سرعت بالایی پیشرفته شده اند. امروزه الگوریتم های یادگیری عمیق به نرم افزارهای تشخیص چهره قدرت می بخشند و به هر کسی اجازه می دهند در عرض چند دقیقه دیپ فیک درست کند! روند تصمیم گیری هوش مصنوعی نیز با توجه به پیشرفته شدن این الگوریتم ها تغییراتی داشته است.
AI توسط بسیاری از شرکت ها و موسسات استفاده می شود و از دستیارهای صوتی هوشمند گرفته تا ترجمه خودکار زبان ها را بر عهده می گیرد. با این حال این پیشرفت روز افزون بدون مشکل هم نیست. سرعت پیشرفت الگوریتم های هوش مصنوعی به قدری زیاد است که در بسیاری از مواقع مدل های AI به خوبی درک نمی شود و مردم نمی دانند چرا این مدل ها، تصمیمات خاصی می گیرند.
عدم درک این مدل ها فقط به مردم عادی مربوط نمی شود؛ حتی محققان و برنامه نویسانی که از AI استفاده می کنند، نمی دانند چرا این مدل ها در برخی از مواقع این گونه تصمیم می گیرند.
در این بخش می خواهیم این موضوع را بررسی کنیم و ببینیم سرعت ارتقای سریع AI چه تبعاتی برای انسان می تواند داشته باشد.
عدم درک تصمیم گیری هوش مصنوعی از زبان متخصصین
برایان روتلج، استادیار دانشگاه Carnegie Mellon اظهار داشته که اگر نتوانید الگوریتم ها را به درستی توصیف کنید، یک مشکل واقعی در راه است!
این که روند تصمیم گیری AI توسط خالق آن درک نشود، یکی از پدیده های عجیبی است که فقط در این حوزه می توان آن را دید. اما همین موضوع می تواند دلیل قدرت و موفقیت هوش مصنوعی هم باشد. در واقع بر اساس هوش مصنوعی، انسان الگوریتمی خودآموز ایجاد می کند که محاسبات خاصی را فراتر از توانایی های بشری به انجام می رساند.
با این حال برایان روتلج و همکارش در اظهاریه اخیر خود بیان داشتند که اطلاع از روند تصمیم گیری هوش مصنوعی یکی از حقوق انسان هاست. آنها باید بدانند که کسب و کار خودشان را به دست چه مدل هایی می دهند. روتلج هوش مصنوعی را به علم پزشکی تشبیه کرده که مردم عادی، تصمیمات پزشکی را درک نمی کنند و یکی از دغدغه های پزشکان این است که چگونه موضوع را به اطلاع بیمار برسانند.
وقتی مدل های هوش مصنوعی قابل درک نیست، توضیحات اهمیت می یابند
راید گانی، استاد یادگیری ماشینی در دانشگاه Carnegie Mellon اعتقاد دارد که هر مورد استفاده از AI به یک اندازه توضیح نیاز ندارد. به عنوان مثال در یک سیستم تشخیص تصاویر، ساده تر می توان فهمید که الگوریتم چه مواردی را به اشتباه تشخیص داده است. مثل وقتی که یک گربه به اشتباه با برچسب سگ تشخیص داده شده باشد.
به اعتقاد گانی فناوری هوش مصنوعی برای انجام دو دسته از وظایف استفاده می شود:
• وظایفی که انسان در انجام آنها خوب است، اما آنها را به آرامی انجام می دهد.
• وظایفی که انسان ها قادر به انجام آنها نیستند.
روند تصمیم گیری هوش مصنوعی در مورد کارهایی که انسان قادر به انجام آنهاست، پیچیده نیست. این الگوریتم ها درک شدنی هستند و AI خیلی سریع تر از انسان آنها را تشخیص می دهد. اما در رابطه با مواردی که انسان نمی تواند آنها را انجام داده یا پیش بینی کند، ماجرا متفاوت می شود.
به عنوان مثال هوش مصنوعی می تواند پیش بینی کند که چه کسی به موقع از دبیرستان فارغ التحصیل نمی شود یا چه کسی در طولانی مدت بیکار خواهد شد. از آنجایی که انسان ها نمی توانند صحت درستی این مدل ها را بررسی کنند، تصمیم گیری های AI پیچیده و غیر قابل درک می شود. در واقع در این شرایط هوش مصنوعی خروجی هایی را ارائه می دهد که انسان ها نمی توانند به تنهایی آنها را تایید کنند.
به همین دلیل است که توضیحات اهمیت پیدا می کنند. توضیحات به ما کمک می کنند تا بفهمیم چگونه پیش بینی های صحیح را از پیش بینی های اشتباه جدا کنیم. توضیحات حتی می توانند شک های ما را برطرف کنند تا به سیستم های AI بیشتر اعتماد داشته باشیم.
منظور از «توضیح» چیست؟!
نحوه یادگیری و تصمیم گیری هوش مصنوعی و الگوریتم های یادگیری ماشینی این گونه است که از داده های بسیاری برای اصلاح خود استفاده می کنند. دانشمندان یک الگوریتم را در نظر می گیرند و آن را به نتیجه دلخواه خودشان می رسانند. سپس به الگوریتم اجازه می دهند تا خودش را با استفاده از مقادیر تصادفی و کوهی از داده ها، آزمایش کرده و به روز کند.
اگر بخواهیم این مدل ها را با مغز انسان مقایسه کنیم باید آن را مهارت حل مسئله بنامیم. حل مسئله در انسان با توجه به داده ها و تجاربی که به دست آورده، میسر می شود. اما ذهن انسان نمی تواند به تمام داده ها دسترسی داشته و آنها را حفظ کند. اینجا جایی است که هوش مصنوعی مانند یک جعبه سیاه عمل می کند و درک تصمیم گیری آن برای ما دشوار می شود.
اما از آنجایی که نحوه کار الگوریتم های AI بسیاری خاص و مبتنی بر ریاضیات است، زمانی که از هوش مصنوعی قابل توضیح صحبت می کنیم، باید بپرسیم که اصلا درک و توضیح در یک سیستم AI به چه معناست؟! چه کسی تصمیم می گیرد که چه چیزی قابل توضیح باشد؟
یک راه برای تعریف «توضیح» وجود دارد. برای این کار باید داده ها را دنبال کنید تا در توابع ریاضی مدل حرکت کنند و تمام مسیرها را دنبال کنید تا به خروجی نهایی برسید. این تعریف با توجه به این که الگوریتم ها مانند ماشین هستند، بیان شده است. در واقع ما باید از مکانیسم ماشین ها پیروی کنیم.
شما نمی توانید از یک ماشین بپرسید «چرا؟»، این یک سوال انسانی است. سوالی که از ماشین می پرسید «چگونه» است.
آیا تصمیم گیری هوش مصنوعی برای انسان قابل درک خواهد شد؟!
تصمیم گیری در ماشین ها فقط بر اساس منطق و داده ها انجام می گیرد. این در حالی است که وقتی افراد تصمیمی می گیرند، علاوه بر منطق از تجربه شخصی، دانش، احساسات و شخصیت خود نیز استفاده می کنند. در واقع بیشتر تصمیمات و انگیزه واقعی رفتارهای انسان، در ناخودآگاه او شکل می گیرد. اما این جریان در الگوریتم های هوش مصنوعی دیده نمی شود. آنها تنها بر اساس دانش و تجربه تصمیم می گیرند و این موضوع شاید هیچ گاه برای انسان قابل درک نباشد.
به همین دلیل توضیح روند تصمیم گیری AI هم مسائل خاص خودش را دارد. افراد می خواهند تصمیمات AI تا حد زیادی ساده و نزدیک به خط فکری آنها باشد. اما آیا دیگر نام این الگوریتم ها، هوش مصنوعی خواهد بود؟؟!
منبع:
https://builtin.com
دیدگاه خود را بنویسید