در آگوست امسال خبرهایی از توسعه هوش مصنوعی جدیدی از سوی گوگل به گوش رسیده است. با این حال هنوز سوالات اخلاقی مربوط به این حوزه بدون پاسخ باقی مانده اند.
هوش مصنوعی در حال حاضر قادر به انجام برخی از وظایف غیر قابل باور مانند پیش بینی سیل، تشخیص بیماری و ترجمه در لحظه زبان های مختلف است. پیشرفت در شبکه عصبی همراه با قدرت محاسباتی بسیار زیاد به شرکت های فناوری اجازه داده که در دهه گذشته مدل های مختلفی از AI را طراحی کنند.
در این بخش می خواهیم ببینیم هوش مصنوعی جدید گوگل در چه زمینه ای طراحی شده و قرار است چه چالش هایی را برطرف کند.
توسعه هوش مصنوعی جدید گوگل از زبان مدیر AI این کمپانی
جف دین (Jeff Dean)، مدیر هوش مصنوعی گوگل معتقد است که در حوزه AI ما فقط به خراشیدن سطح این علم جدید بسنده کرده ایم. او در کنفرانس TED در کالیفرنیا صحبت کرد و نشان داد که گوگل در حال طراحی یک هوش مصنوعی چند منظوره است. این هوش مصنوعی می تواند میلیون ها وظیفه را به طور هم زمان انجام دهد. راه حل گوگل که Pathways نامیده می شود، به دنبال متمرکز کردن هوش های مصنوعی متفاوت در یک الگوریتم قدرتمند و همه جانبه است.
جف دین که از این موضوع بسیار هیجان زده بود گفت: «این نوع از سیستم های اطلاعاتی عمومی، درک عمیق تری از جهان دارند. به همین دلیل به ما اجازه می دهند تا با بزرگ ترین مشکلات بشری که با آنها روبرو هستیم، به سادگی مقابله کنیم.»
او اظهار داشته که با ترزیق این مدل الگوریتم های جدید به دانش هایی مثل شیمی و فیزیک، می توانیم مهندسی دارویی بهتری داشته باشیم؛ سیستم های آموزشی را با ارائه تدریس های خصوصی و شخصی سازی شده پیش ببریم و به مسائل پیچیده ای نظیر آب و هوا و مهندسی انرژی های پاک بیشتر بپردازیم.
فرضیاتی در رابطه با اصول اخلاقی در هوش مصنوعی
توسعه هوش مصنوعی در کلمات ساده به نظر می رسد، اما زمانی که بحث طراحی و کنترل سیستم های هوش مصنوعی پیش می آید، حتی خوش بینی جف دین با نگرانی هایی آمیخته می شود.
ابتکار یادگیری ماشینی گوگل با خروج دو نفر از اعضای سابق تیم هوش مصنوعی این کمپانی مورد بررسی قرار گرفت. تیمنیت گبرو (Timnit Gebru) و مارگارت میچل (Margaret Mitchell) که در تیم AI گوگل فعالیت داشتند، به دلایلی مجبور به ترک این کمپانی شدند.
گبرو اعتقاد دارد به دلیل مقاله جنجالی اش درباره خطرات مدل های هوش مصنوعی یادگیری زبان که روی حجم زیادی از نوشته ها آموزش داده شده بود، مجبور به ترک گوگل شد. کارن هاو (Karen Hao) از MIT Tech Review این موضوع را این گونه توضیح داده است: «از آنجایی که هوش مصنوعی گوگل متن ها را از دنیای اینترنت به عنوان داده های خام به دست می آورد، این احتمال وجود دارد که زبان هوش مصنوعی نژادپرستانه، جنسیتی و توهین آمیز باشد.»
جف دین در پایان صحبت های خود به ضرورت جمع آوری مسئولانه داده ها اشاره ای کرد؛ با این حال باتلاق های اخلاقی توسعه هوش مصنوعی را با جزئیات بیشتر بررسی نکرد. در آخر او اسلایدی از اصول هوش مصنوعی گوگل نشان داد که در نگرش های گسترده تری به این نگرانی ها اشاره دارد. جف دین گفت: «نگرانی های مربوط به داده های ورودی، تنها یک جنبه از مسئولیت است. ما کارهای زیادی برای انجام دادن داریم.»
بررسی مسئولانه ورودی ها و نتایج حاصل از هوش مصنوعی
جف دین در حالی روی سن کنفرانس TED حاضر شده که بیشتر کارکنان فعلی گوگل، خواستار بررسی های دقیق تری در رابطه با کنترل فناوری ها و سیستم های هوش مصنوعی جهانی هستند. یکی از این منتقدان طرح AI گوگل به نام Coder Xiaowei R. Wang دقیقا بعد از حضور جف دین روی صحنه آمد و صحبت کرد. او مدیر خلاق مجله مستقل فناوری Logic است. وانگ صحبت ها و انتقادات خود را این گونه آغاز کرد:
«زمانی که صحبت از هوش مصنوعی می شود، فقط یک مورد خوش بینانه می تواند وجود داشته باشد و آن هم این که مردم و جوامع خودشان بتوانند این خوش بینی را مطرح کنند، نه افرادی مانند جف دین و کمپانی های بزرگی مثل گوگل. به همین دلیل شاید تعطیل کردن جوامع هوش مصنوعی بتواند به توسعه و بررسی آن کمک بیشتری کند!» او اعتقاد دارد هوش مصنوعی تحت جنبش «AI for Good» که به دنبال استفاده از یادگیری ماشینی برای برطرف کردن شدیدترین مشکلات برابری اجتماعی جهانی است، کاربرد بیشتری خواهد داشت.
کریس اندرسن (Chris Andersen)، سرپرست کنفرانس TED و گرگ براکمن (Greg Brockman)، بنیان گذار گروه تحقیقاتی اخلاق هوش مصنوعی Open AI نیز در پایان این کنفرانس، پیامدهای ناخواسته سیستم های قدرتمند یادگیری ماشینی را بررسی کردند.
براکمن سناریویی را توصیف کرد که در آن انسان ها به عنوان راهنماهای اخلاقی هوش مصنوعی عمل می کنند. او اظهار داشت که: «ما می توانیم ارزش های مورد نیاز توسعه هوش مصنوعی را مانند یک کودک به او آموزش دهیم. این یک نکته مهم اما ظریف است. من فکر می کنم شما برای یادگیری الگویی از جهان به سیستم نیاز دارید. اگر به کودک آموزش می دهید، باید بیاموزد که خوب و بد چیست.»
در نهایت اندرسون نیز پیشنهاد کرد زمانی که ماشین ها آموزش داده شوند، فرصتی برای نگه داری از آن ها وجود دارد. او در پایان صحبت های خودش در کنفرانس TED گفت: «یکی از مسائل کلیدی برای کنترل سیستم های هوش مصنوعی این است که افراد را کاملا دقیق برای نظارت بر نتایج و خروجی های AI انتخاب کنیم.»
هنوز آینده ای برای هوش مصنوعی جدید گوگل وجود ندارد!
سرعت رشد و توسعه هوش مصنوعی بیشتر از هر دانش دیگری است. در این میان کمپانی های بزرگ دنیا تلاش دارند که لقب «اولین» را آنها یدک بکشند. این موضوع می تواند منجر به طراحی مدل ها و الگوریتم های خاصی شود که شاید در عمل نتیجه جالبی را در بر نداشته باشند. گوگل یکی از این کمپانی ها است که در سال های اخیر سعی کرده در توسعه و پیشرفت AI همیشه حرف اول را بزند.
با این حال با توجه به صحبت های جف دین و اتفاقات اخیری که در تیم هوش مصنوعی این کمپانی دیده شده، شاید اعتماد به طراحی یک هوش مصنوعی جدید از این کمپانی ایده خوبی نباشد. با این حال باید اخبار گوگل و این حوزه را دنبال کرد تا متوجه اصلاحات و طرح های احتمالی آنها شد.
شما درباره توسعه این هوش مصنوعی چه دیدگاهی دارید!؟ جهان هوشمند آینده جای بهتری برای زندگی است؟!
منبع:
https://qz.com
دیدگاه خود را بنویسید