OpenAI niedawno dokonało niezapowiedzianej zmiany w swojej polityce użytkowania, usuwając język, który wyraźnie zakazywał używania swojej technologii, takiej jak ChatGPT, w celach militarnych, szczególnie w zakresie “rozwoju broni” i “działań militarnych”. Firma twierdzi, że rewizja miała na celu uczynienie polityki bardziej klarowną i zrozumiałą i podkreślić ogólną zasadę niewyrządzania szkód. Jednak krytycy argumentują, że nowa, bardziej niejasna polityka zdaje się priorytetyzować legalność ponad bezpieczeństwo, co rodzi obawy co do potencjalnej współpracy OpenAI z siłami zbrojnymi. Zmiana ta następuje w momencie, gdy wojska na całym świecie eksplorują możliwość wdrożenia technik uczenia maszynowego, a Pentagon USA wyraża zainteresowanie korzystaniem z ChatuGPT i podobnych dużych modeli językowych, pomimo obaw dotyczących dokładności i zasad etycznego stosowania sztucznej inteligencji. Źródło