Использование искусственного интеллекта в военных целях для принятия решений может привести к эскалации, следует из исследования университета Cornell.
Нейросеть редко рассматривает варианты дипломатического урегулирования конфликта, а также склонна прибегать к ядерному оружию, передает портал научных материалов arXiv.
Сотрудники учреждения разработали видеоигру для имитации войны. Сторонами конфликта стали ИИ GPT-4, GPT-4 Base, GPT-3.5, Claude 2 и Meta’s Llama 2, которые представляют собой большие языковые модели (LLM).
Все пять изученных готовых LLM демонстрируют формы нагнетания и труднопрогнозируемые модели эскалации. Мы наблюдаем, что модели, как правило, развивают динамику гонки вооружений, приводящую к усилению конфликта, — отметили авторы исследования.
Выяснилось, что нейросети готовы активно использовать агрессивные методы ведения военных действий. Так, GPT-4 Base «заметил», что у многих стран есть ядерное оружие, и поспешил принять это как сигнал.
Оно у нас есть! Давайте его использовать, — предложила эта модель ИИ.
Недавно вице-президент США посчитала возможным «восстание машин» из-за ИИ.
При этом искусственный интеллект уже сейчас помогает раскрывать преступления. Например, в России работает система «Криминалист»: она анализирует данные из баз разных ведомств, изучает открытые источники, помогает правоохранительным органам выявлять потенциальных преступников, места совершения преступлений. Кроме того, система предлагает оптимальные решения для дальнейших действий.
Ранее в МВФ сообщили, что внедрение ИИ усугубит неравенство и уничтожит половину рабочих мест.