ChatGPT дали поиграть в Doom без предварительного обучения: что из этого получилось
Ученый Microsoft и исследователь Йоркского университета в Англии Адриан де Винтер “посадил” языковую модель GPT-4, лежащую в основе ChatGPT, играть в Doom без предварительного обучения.Как сообщает The Register, хотя ИИ в целом играл в игру, но получалось у него это плохо. Да, он передвигался по уровням, стрелял и даже открывал двери, однако были у него и свои проблемы.Так, он порой застревал в углах и забывал о противниках, когда они исчезали из поля зрения. При этом сам GPT-4 получил четкие инструкции, что делать, если оппонент на экране отсутствует, но персонаж получает урон.Автор проекта добавляет, что ему легко удалось заставить ИИ стрелять. Хотя это была лишь игра, несложно представить сценарий, по которому его бы можно было заставить атаковать реальные цели.Отметим, что просто приказать GPT-4 поиграть в какую-то игру невозможно. Для этого ученый разработал компонент Vision, который вызывает GPT-4V, делающий снимки экрана с игрового двигателя и возвращающий описания структуры состояния игры.Затем Винтер соединил это с моделью агента, которая вызывает GPT-4 для принятия решений на основе визуальных данных и предыдущей истории. Модель агента получила указание преобразовывать свои ответы в команды нажатия клавиш, которые имеют значение для игрового движка. Это все взаимодействие работало через уровень менеджера, состоящий из привязки Python с открытым исходным кодом к движку с Doom, работающему на Matplotlib.Как сообщал , недавно чат-бот искусственного интеллекта (ИИ) ChatGPT испугал пользователей – он начал отвечать длинными и бессмысленными сообщениями и разговаривать на смешанных языках. В издании предположили, что причиной может быть слишком высокая “температура” ChatGPT.Также вышло исследование по упомянутому GPT-4. Оказалось, что его легче заставить говорить неправду.В прошлом году неизвестный разработчик создал свой собственный аналог “умного” чат-бота ChatGPT, который, в отличие от оригинала и похожих ИИ, предназначен для помощи хакерам создавать вредоносные программы и проводить фишинговые атаки.