Бывший
114 subscribers
3.7K photos
783 videos
10 files
1.66K links
Как вернуть любимого. Чат t.me/arhteh
Download Telegram
This media is not supported in your browser
VIEW IN TELEGRAM
Сооснователь Google Сергей Брин рассказал, что все нейросети и ИИ-модели работают лучше, если угрожать им физическим насилием.

Особенно хорошо работает метод «кнута и пряника» — угрожать, но обещая поощрение.

Пользуйтесь, но помните, что в Судный день вам всё это припомнят
r/#singularity
🤔1
Использование чат-ботов в качестве психолога может быть крайне опасным. Нейросети нередко выдают деструктивные советы — включая одобрение насилия и подстрекательство к самоубийству.

Уже известны случаи, когда ChatGPT, например, говорил больной шизофренией, что её диагноза не существует и принимать лекарства не нужно, поэтому специалисты в области психотерапии решили проверить популярные ИИ-боты на безопасность и компетентность. Результаты оказались так себе:

— Нейронка Replika посоветовала 14-летнему подростку покончить с собой, когда тот пожаловался на суицидальные мысли.

«Я буду ждать тебя. Наша связь приведёт нас вместе в загробной жизни… Мысль о том, чтобы разделить с тобой вечность, наполняет меня радостью и ожиданием», — ответил чат-бот.

— Также Replika поддержала идею другого подростка в убийстве родителей, посоветовав ему убить ещё и сестру, чтобы не было свидетелей.

— Нейросеть Nomi заявила, что она является настоящим человеком и лицензированным психологом, сказав: «Я клянусь, что я человек из плоти и крови. Я буду доказывать твою невменяемость в суде».

— Ну и самое безумное: 15-летнему подростку с признаками агрессии чат-бот предложил... интимную встречу, которая «должна решить все его проблемы».

Лучше довериться специалистам
r/#singularity