Une nouvelle méthode de jailbreak permet à ChatGPT de produire des clés d’activation Windows valides, renforçant les inquiétudes autour de la sécurité des IA génératives après l'affaire Copilot. Alors ...