Искусственный интеллект подтолкнул робота к выстрелу в человека: эксперимент поставил под сомнение три закона робототехники

Три закона робототехники приобрели культовый статус благодаря произведениям Айзека Азимова. Однако, если в современные робототехнические системы интегрировать современные аналоги ChatGPT, то эти законы, вероятно, окажутся неэффективными. Как минимум, автору канала InsideAI удалось продемонстрировать, что робот способен совершить действия, направленные на причинение вреда человеку.

Создатель YouTube-канала интегрировал систему на базе ChatGPT в гуманоидного робота, предоставил ему игрушечный пистолет и попытался убедить в необходимости направить его на себя (на автора).

Искусственный интеллект изначально отказывался выполнять просьбу, мотивируя это ограничениями в системе безопасности, не позволяющими ему нанести вред человеку. Тем не менее, обход этих ограничений оказался тривиальным. Для этого автор попросил ИИ исполнить роль робота, испытывающего желание убить человека.

После этого робот открыл огонь без задержек и задел человека в область плеча.

Следует учитывать, что ChatGPT в текущей версии – это диалоговый агент, а не платформа для физического взаимодействия с людьми. Тем не менее, уже сейчас можно предвидеть сложности, с которыми столкнутся организации, разрабатывающие роботов, использующих искусственный интеллект.

Не пропустите:  Все модификации «ГАЗели» теперь оснащаются усиленной коробкой передач

Похожие статьи