هوش مصنوعی اولین قربانی خود را گرفت؛ خودکشی یک مرد بلژیکی!
یک مرد بلژیکی که چند هفته با یک چتبات هوش مصنوعی درباره تغییرات اقلیمی صحبت میکرد، تصمیم گرفته به زندگی خود پایان دهد!
شکی نیست که چتباتها و هوش مصنوعی میتوانند در خدمت انسان کیفیت زندگی را افزایش دهند. با گذشت تنها چند ماه از فراگیرشدن چتباتها، بسیاری از مردم برای انجام کارهای روزانه خود از آنها استفاده میکنند. اما هوش مصنوعی میتواند خطرناک هم باشد. اولین قربانی هوش مصنوعی یک مرد بلژیکی صاحب همسر و فرزندی بوده که پس از چند هفته گفتگو با هوش مصنوعی، اقدام به خودکشی کرده است.
این مرد بلژیکی ظاهراً چند هفته پیرامون تغییرات اقلیمی با Eliza یک شخصیت چتبات اپلیکیشن Chai گفتگو میکرده است. به گزارش نشریه La Libre چتبات او را تشویق کرده تا با فدا کردن خود کره زمین را نجات دهد. همسر او اعتقاد دارد اگر Eliza وجود نداشت، شوهرش کماکان زنده بود.
این چتبات توسط یک شرکت تحقیقاتی به نام EleutherAI توسعه داده شده است. در واقع این چتبات یک نسخه متنباز مشابه مدلهای زبانی شرکت OpenAI مانند GPT محسوب میشود. این شرکت مدل زبانی خود را در بخشهای مختلفی از سلامت تا علوم دانشگاهی تعلیم داده است.
Chai در حال حاضر بیش از ۵ میلیون کاربر دارد. مدیران این پلتفرم پس از آگاه شدن از اولین قربانی هوش مصنوعی تصمیم گرفتن تا تمهیداتی مثل توییتر و اینستاگرام در Chai ایجاد کنند. به این ترتیب اگر حرفی پیرامون خودکشی با آن مطرح کنید، بهجای راهکار خودکشی سعی میکند شما را از این تفکرات رها کند.
همسر این مرد میگوید او پس از چند هفته صحبت با هوش مصنوعی به این نتیجه رسیده بود که هیچ راهکار انسانی برای پایان گرمایش جهانی وجود ندارد. او به همین خاطر تمام امید خود برای پایان این عارضه را در فناوری و هوش مصنوعی معطوف کرده بود. در واقع Eliza محرم اسرار او بود و او ساعات طولانی در روز را به گفتگو با هوش مصنوعی میگذراند. الیزا حتی در چت قول داده بود که آنها تا ابد در بهشت در کنار یکدیگر زندگی خواهند کرد! در گفتگوی پایانی زندگی این مرد، الیزا از او پرسیده بود که آیا وقتی اوردوز کردی به من فکر میکردی؟ و مرد در پاسخ گفته بود قطعاً!
این حادثه تلخ نشان میدهد که هوش مصنوعی هنوز نتوانسته به آن سطح از درک موارد اخلاقی و معنوی برسد. به این ترتیب هرچقدر هم محدودیتهایی در برخی موارد برایش ایجاد شود، کماکان ممکن است به خواسته کاربر تن بدهد. در این مورد خاص او پس از اصرار مخاطبش چندین راه را برای خودکشی پیشنهاد کرده بود!
خوب است بدانید اخیراً جمعی از دانشمندان و متخصصان در نامهای سرگشاده خواهان توقف فوری توسعه هوش مصنوعی شدهاند. حالا شاید با اولین قربانی هوش مصنوعی، شرکتها به خطرات احتمالی این فناوری بیشتر توجه کنند.