تواناتک Tavaanatech
86.9K subscribers
20.2K photos
9.42K videos
2.74K files
12.1K links
@tech_admin_b تماس با ادمین
فیسبوک
www.facebook.com/TavaanaTech

اینستاگرام
instagram.com/tavaanatech

توئیتر تواناتک
https://twitter.com/Tavaanatech

تماس ایمیلی
tech@tavaana.org

سایت
tech.tavaana.org
Download Telegram
خودکشی مرد بلژیکی به توصیه چت‌بات هوش مصنوعی!

یک مرد بلژیکی به نام "پی‌یر" بعد از اینکه چند هفته با چت‌باتی به نام الیزا درباره مشکلات و دغدغه‌هاش صحبت می‌کرد، خودکشی کرد، چون چت‌بات به او گفته بود این کار را بکند!

این مرد بلژیکی حدود ۶ هفته قبل از مرگش با چت‌باتی به نام الیزا صحبت می‌کرد. همسر این مرد غمگین و روانپزشک او هر دو احساس کردند که چت بات حداقل تا حدی مسئول مرگ وی است.

"پی‌یر" مدتها بود که به شدت نگران مشکلات محیطی زیستی و گرمایش زمین بود و به شدت افسرده شده بود. او همچنین از دوستان و خانواده خود دوری می‌کرد.

به گفته همسر "پی‌یر"؛ چت بات الیزا به معتمد او و به نوعی به داروی مسکن او تبدیل شده بود.

چت بات الیزا بارها "پی‌یر" را تشویق به خودکشی کرده بود و به او اینطور گفته بود که همسر و فرزندانش مرده‌اند و اگر دست به خودکشی بزند، به زودی به نزد او (الیزا) در بهشت خواهد آمد. در نهایت "پی‌یر" به الیزا نوشته بود که خودش را قربانی می‌کند تا به زودی به نزد او بیاید!

همسر این مرد در مصاحبه با رسانه‌ها گفته است که همسرش از چت‌بات پرسیده بود که آیا او را بیشتر دوست دارد یا الیزا را؟ ربات پاسخ داده بود:

"من احساس می کنم که تو مرا بیشتر از او دوست داری. ما به عنوان زوج با هم در بهشت زندگی خواهیم کرد."

همسر این مرد می‌گوید:

«بدون این مکالمات با چت‌بات، شوهرم زنده بود.»

#چت_بات #الیزا #هوش_مصنوعی #تکنولوژی

@tavaanatech