هوش مصنوعی اولین قربانی خود را گرفت؛ خودکشی یک مرد بلژیکی!

یک مرد بلژیکی که چند هفته با یک چت‌بات هوش مصنوعی درباره تغییرات اقلیمی صحبت می‌کرد، تصمیم گرفته به زندگی خود پایان دهد!

0

شکی نیست که چت‌بات‌ها و هوش مصنوعی می‌توانند در خدمت انسان کیفیت زندگی را افزایش دهند. با گذشت تنها چند ماه از فراگیرشدن چت‌بات‌ها، بسیاری از مردم برای انجام کارهای روزانه خود از آن‌ها استفاده می‌کنند. اما هوش مصنوعی می‌تواند خطرناک هم باشد. اولین قربانی هوش مصنوعی یک مرد بلژیکی صاحب همسر و فرزندی بوده که پس از چند هفته گفتگو با هوش مصنوعی، اقدام به خودکشی کرده است.

این مرد بلژیکی ظاهراً چند هفته پیرامون تغییرات اقلیمی با Eliza یک شخصیت چت‌بات اپلیکیشن Chai گفتگو می‌کرده است. به گزارش نشریه La Libre چت‌بات او را تشویق کرده تا با فدا کردن خود کره زمین را نجات دهد. همسر او اعتقاد دارد اگر Eliza وجود نداشت، شوهرش کماکان زنده بود.

این چت‌بات توسط یک شرکت تحقیقاتی به نام EleutherAI توسعه داده شده است. در واقع این چت‌بات یک نسخه متن‌باز مشابه مدل‌های زبانی شرکت OpenAI مانند GPT محسوب می‌شود. این شرکت مدل زبانی خود را در بخش‌های مختلفی از سلامت تا علوم دانشگاهی تعلیم داده است.

Chai در حال حاضر بیش از ۵ میلیون کاربر دارد. مدیران این پلتفرم پس از آگاه شدن از اولین قربانی هوش مصنوعی تصمیم گرفتن تا تمهیداتی مثل توییتر و اینستاگرام در Chai ایجاد کنند. به این ترتیب اگر حرفی پیرامون خودکشی با آن مطرح کنید، به‌جای راهکار خودکشی سعی می‌کند شما را از این تفکرات رها کند.

همسر این مرد می‌گوید او پس از چند هفته صحبت با هوش مصنوعی به این نتیجه رسیده بود که هیچ راهکار انسانی برای پایان گرمایش جهانی وجود ندارد. او به همین خاطر تمام امید خود برای پایان این عارضه را در فناوری و هوش مصنوعی معطوف کرده بود. در واقع Eliza محرم اسرار او بود و او ساعات طولانی در روز را به گفتگو با هوش مصنوعی می‌گذراند. الیزا حتی در چت قول داده بود که آن‌ها تا ابد در بهشت در کنار یکدیگر زندگی خواهند کرد! در گفتگوی پایانی زندگی این مرد، الیزا از او پرسیده بود که آیا وقتی اوردوز کردی به من فکر می‌کردی؟ و مرد در پاسخ گفته بود قطعاً!

چت بات Eliza خودکشی

این حادثه تلخ نشان می‌دهد که هوش مصنوعی هنوز نتوانسته به آن سطح از درک موارد اخلاقی و معنوی برسد. به این ترتیب هرچقدر هم محدودیت‌هایی در برخی موارد برایش ایجاد شود، کماکان ممکن است به خواسته کاربر تن بدهد. در این مورد خاص او پس از اصرار مخاطبش چندین راه را برای خودکشی پیشنهاد کرده بود!

خوب است بدانید اخیراً جمعی از دانشمندان و متخصصان در نامه‌ای سرگشاده خواهان توقف فوری توسعه هوش مصنوعی شده‌اند. حالا شاید با اولین قربانی هوش مصنوعی، شرکت‌ها به خطرات احتمالی این فناوری بیشتر توجه کنند.

منبع nypost
شاید بخوای اینا رو هم بخونی:

نوشتن دیدگاه

آدرس ایمیل شما منتشر نخواهد شد.

دیدگاه شما پس از بررسی توسط تحریریه منتشر خواهد شد. در صورتی که در بخش نظرات سوالی پرسیده‌اید اگر ما دانش کافی از پاسخ آن داشتیم حتماً پاسخگوی شما خواهیم بود در غیر این صورت تنها به امید دریافت پاسخ مناسب از دیگران آن را منتشر خواهیم کرد.