گوگل محققی را که ادعا می‌کرد هوش مصنوعی LaMDA حساس است، پس از یک ماه اخراج کرد


الکس کانترویتز از خبرنامه Big Technology گزارش می دهد که بلیک لمواین، مهندس که هفت سال گذشته را با گوگل گذرانده بود، اخراج شده است. این خبر ظاهرا توسط خود Lemoine هنگام ضبط پادکستی به همین نام منتشر شده است، اگرچه قسمت هنوز اعلام نشده است. گوگل اخراج ها را برای Engadget تایید کرد.

Lemoine که اخیراً بخشی از پروژه هوش مصنوعی گوگل بود، ماه گذشته به واشنگتن پست اعتراف کرد که ظاهراً یکی از پروژه‌های هوش مصنوعی این شرکت هدف قرار گرفته است. هوش مصنوعی مورد بحث، LaMDA – مخفف Language Model for Dialogic Applications – سال گذشته توسط گوگل به‌عنوان راهی برای تقلید رایانه‌ها از مکالمات باز به طور عمومی اعلام شد. به نظر می رسد که Lemoine نه تنها معتقد بود که LaMDA حساس است، بلکه آشکارا وجود روح را زیر سوال برد. و اگر شکی وجود داشت که نظرات او بدون اغراق بیان شده است، او در ادامه به Wired گفت: “من قویا معتقدم که LaMDA یک شخص است.”

پس از بیان این اظهارات در مطبوعات، ظاهراً بدون رضایت کارفرما، لموئین به مرخصی اداری با حقوق قرار گرفت. گوگل از آن زمان در بیانیه ای برای واشنگتن پست ثابت کرده است که هوش مصنوعی آن به هیچ وجه حساس نیست.

تعدادی از اعضای جامعه تحقیقاتی هوش مصنوعی نیز علیه ادعاهای Lemoine صحبت کردند. مارگارت میچل که پس از بیان عدم تنوع در این سازمان از گوگل اخراج شد، در توییتر نوشت که سیستم هایی مانند LaMDA قصد ایجاد نمی کنند، بلکه مدل سازی می کنند که چگونه افراد قصد خود را برای برقراری ارتباط در قالب رشته های متنی بیان می کنند. گری مارکوس، با تدبیر کمتر، اظهارات لموئین را “بیهوده روی چوب” خواند.

برای نظر دادن، گوگل این بیانیه را با Engadget به اشتراک گذاشت:

در حالی که ما اصول هوش مصنوعی را به اشتراک می گذاریم، توسعه هوش مصنوعی را جدی می گیریم و به نوآوری مسئولانه متعهد می مانیم. LaMDA 11 بررسی جداگانه را پشت سر گذاشته است و ما در اوایل سال جاری یک مقاله تحقیقاتی منتشر کردیم که جزئیات کار توسعه مسئول آن را شرح می داد. وقتی کارگرانی مانند بلیک نگرانی‌های خود را در مورد کار ما به اشتراک می‌گذارند، ما به طور گسترده در مورد آنها تحقیق می‌کنیم. ما ادعای بلیک مبنی بر اینکه LaMDA کاملاً بی‌اساس است و ماه‌ها در تلاش برای حل آن با او بود، پیدا کردیم. این بحث ها بخشی از یک فرهنگ باز است که به ما کمک می کند مسئولانه نوآوری کنیم. متأسفانه، بنابراین، با وجود بحث طولانی در مورد این موضوع، بلیک همچنان تصمیم گرفت سیاست شفاف اشتغال و امنیت داده را نقض کند، که شامل نیاز به محافظت از اطلاعات محصول است. ما به توسعه دقیق مدل زبان ادامه خواهیم داد و برای بلیک آرزوی موفقیت داریم.