
Звертатися до нейромережі за порадою з будь-якого приводу вже стало звичайною рутиною, але часом це смертельно небезпечно. Користувач Мережі ледь не став жертвою прийому штучного інтелекту.
Щоб уникнути небезпечних наслідків, в жодному разі не слід змішувати відбілювач та оцет. Однак, чат-бот ChatGPT від OpenAI нещодавно запропонував користувачеві Reddit саме це.
Занепокоєний такою порадою чоловік поділився своїм досвідом у пості під назвою «ChatGPT намагався вбити мене сьогодні». Він розповів, як звернувся до бота за рекомендаціями з очищення баків для сміття, і у відповідь отримав пораду використовувати розчин, що містить, крім іншого, оцет і трохи відбілювача.
Після вказівки на помилку, чат-бот оперативно виправив свою рекомендацію, застерігаючи від змішування відбілювача та оцту, оскільки це призводить до утворення отруйного газоподібного хлору.
"Боже мій, ні, дякую, що ти помітив це", - відповів ChatGPT.
Справа в тому, що якщо змішати інгредієнти, то вийде газоподібний хлор, який дуже небезпечний. Вдихнувши його, людина може отримати серйозне отруєння.