Ayon sa ulat ng Jinse Finance, kamakailan ay nagsagawa ng pagsusuri ang OpenAI at Anthropic sa mga modelo ng isa't isa upang matukoy ang mga isyung maaaring hindi nila napansin sa sarili nilang mga pagsusuri. Ipinahayag ng dalawang kumpanya sa kani-kanilang mga blog noong Miyerkules na ngayong tag-init, isinagawa nila ang mga pagsusuri sa seguridad sa mga pampublikong available na AI model ng kabilang panig, at sinuri kung mayroong mga hallucination tendencies at ang tinatawag na "misalignment" na problema, ibig sabihin ay hindi tumatakbo ang modelo ayon sa inaasahan ng mga developer. Natapos ang mga pagsusuring ito bago inilunsad ng OpenAI ang GPT-5 at bago inilabas ng Anthropic ang Opus 4.1 noong unang bahagi ng Agosto. Ang Anthropic ay itinatag ng mga dating empleyado ng OpenAI.