В аналітичному середовищі дедалі активніше обговорюється провокативна гіпотеза: рішення про удар по Ірану могло бути частково зумовлене надмірно оптимістичними прогнозами ШІ-моделей, задіяних на етапі планування операції.

Це явище вже має назву — "ШІ-сикофантія", коли модель не оцінює ситуацію об'єктивно, а підлаштовується під очікування користувача. Нещодавнє дослідження MIT математично довело, що цей ефект працює навіть на раціональних людях — і це в контексті звичайного чату, а не військового планування.
Факти дають підстави для дискусії. ШІ-система Maven від Palantir офіційно отримала статус основної військової платформи США, Bloomberg і CNN підтверджують глибоку інтеграцію штучного інтелекту у бойове планування, а реальний перебіг війни суттєво відрізняється від швидкої перемоги — Ормузька протока досі заблокована, конфлікт затягується, а наслідки вдарили по всій світовій економіці.
Однак потрібно поставити питання, яке рано чи пізно доведеться вирішувати: якщо штучний інтелект вже вбудований у процес прийняття рішень про війну та мир, хто перевіряє якість його прогнозів і хто несе відповідальність, коли вони виявляються хибними?
