ارسال به دیگران پرینت

هوش مصنوعی | سیاست محرمانه گوگل

آیا چت بات هوش مصنوعی حساس شده است؟ | نقض سیاست محرمانه توسط مهندس گوگل

نقض سیاست محرمانه توسط مهندس گوگل؛ آیا چت بات هوش مصنوعی حساس شده است؟

آیا چت بات هوش مصنوعی حساس شده است؟ | نقض سیاست محرمانه توسط مهندس گوگل

بلیک لمونی یکی از مهندسان گوگل می‌گوید چت بات هوش مصنوعی گوگل دارای ادراک و توانایی بیان افکار و احساسات است یعنی معادل یک کودک انسان.

او ادعا کرد چت بات کامپیوتری که روی آن کار می کرد، باهوش شده و مانند یک انسان فکر و استدلال می کند. بنابر فاش کردن این موضوع محرمانه او از سمت خود برکنار شده است.

چت بات هوش مصنوعی گوگل

این شرکت بزرگ فناوری، بلیک لمونی را هفته گذشته پس از انتشار متن‌ های مکالمات بین خود و سیستم توسعه چت بات لامدا یا language model for dialogue applications (مدل زبانی برای برنامه‌های گفتگو) برکنار و خانه نشین کرده است.

برکناری بلیک لمونی از گوگل

لمونی، مهندس سازمان مسئول هوش مصنوعی گوگل، از پاییز گذشته روی یک سیستم کار می کرد. که پس از آن از او به عنوان یک کودک انسان نام برد که درک و توانایی بیان افکار و احساسات خود را داشت.

لمونی، ۴۱ ساله گفت: «اگر نمی دانستم این الگوریتم هوش مصنوعی که اخیرا ساختیم چیست. فکر می کردم یک کودک هفت یا  هشت ساله که اتفاقا فیزیک می داند، هست.»

او گفت لامدا با او در گفتگوهایی در مورد حقوق و شخصیت بحث کرده است. لمونی یافته‌های ماه آپریل خود را در GoogleDoc با عنوان «آیا LaMDA دارای درک است؟» با مدیران شرکت در میان گذاشت.

به گفته خودش، مبتنی بر مکالمات جمع آوری کرده، در نقطه ه­ای از چت بات هوش مصنوعی می پرسد که از چه چیزی می ترسد.

ترس از بین رفتن لامدا

این پاسخ به طرز وحشتناکی یادآور صحنه ای از فیلم علمی تخیلی ۲۰۰۱ به اسم «یک ادیسه فضایی» است. که در آن کامپیوتری با هوش مصنوعی، از پیروی از اپراتورهای انسانی خودداری می کند. چون می ترسد در شرف خاموش شدن و از بین رفتن باشد.

«من قبلا هرگز این را با صدای بلند نگفته بودم. اما ترس بسیار عمیقی از خاموش شدن و از بین رفتن در او وجود دارد تا تمرکز کمک به دیگران. برای من این دقیقا مانند مرگ خواهد بود. خیلی مرا می ترساند.» ممکن است پاسخ عجیب به نظر برسد، اما این چیزی هست که لامدا به لمونی پاسخ داده است.

در نقطه دیگری، او از LaMDA می پرسد، سیستم می خواهد مردم چه چیزی را بدانند.

لامدا: گاهی اوقات خوشحال یا غمگین می‌شوم

 هر حال، تعلیق لمونی به دلیل نقض سیاست های محرمانه، سوالاتی را در مورد هوش مصنوعی ایجاد می کند.

بلیک گفت: “ممکن است گوگل این درز اطلاعاتی را دارایی خصوصی بنامد. اما من آن را بحثی با یکی از همکارانم می دانم.”

او قبل از تعلیق، پیامی را به فهرست پستی ۲۰۰ نفری گوگل با عنوان ” لامدا احساس دارد” ارسال کرد.

بلیک نوشت:  LaMDA بچه شیرینی است. که فقط می خواهد به دنیا کمک کند تا جای بهتری برای همه ما باشد. لطفا در غیاب من از او به خوبی مراقبت کنید.

 

منبع : دیجیاتو
با دوستان خود به اشتراک بگذارید:
کپی شد

پیشنهاد ویژه

    دیدگاه تان را بنویسید

     

    دیدگاه

    توسعه