Microsoft prend des mesures pour interdire les groupes de piratage utilisant ses produits d'IA

Dans son rapport, Microsoft affirme avoir découvert des preuves selon lesquelles des groupes de piratage russes, iraniens, chinois et nord-coréens utilisaient ses produits d'IA.

Alors que la technologie de l’intelligence artificielle a gagné en popularité au cours de la dernière année, les mauvais acteurs tentent également de l’utiliser de manière malveillante, comme l’a souligné Microsoft dans un rapport cette semaine. La société a annoncé une interdiction contre les groupes de piratage soutenus par l’État utilisant ses outils d’IA après avoir découvert que ces groupes utilisaient des produits comme OpenAI à des fins de piratage.

Microsoft a publié son rapport et l'interdiction qui l'accompagne plus tôt cette semaine, comme le rapporteReuters. Selon le rapport, Microsoft avait découvert que des groupes de piratage soutenus par l'État travaillant pour le compte de la Russie, de l'Iran, de la Chine et de la Corée du Nord avaient utilisé OpenAI et d'autres produits d'IA, perfectionnant leurs compétences de piratage en utilisant de grands modèles linguistiques pour tromper leurs cibles de manière malveillante. À la suite de ce rapport, Microsoft a interdit une telle utilisation de ses produits, dans l'espoir de contrôler l'utilisation de l'IA par des groupes militaires et gouvernementaux tels que les renseignements militaires russes et les Gardiens de la révolution iraniens.

OpenAI et Microsoft ont travaillé en étroite collaboration avant même le boom de l'IA, Microsoft réalisant plusieurs investissements clés dans la société d'IA.
Source:Justin Sullivan/Getty Images

Les mesures prises par Microsoft pour protéger ses produits d'IA contre les fins malveillantes ne sont qu'un autre aspect des dangers posés par l'IA non réglementée, sur lesquels d'éminents experts technologiques se sont régulièrement prononcés. Elon Musk a notamment partagé à plusieurs reprises ses réflexions sur lales dangers d’une IA non réglementée, et a même rejoint Steve Wozniak et d'autres leaders de l'industrie dansappelant à des pauses dans la formation sur le système d'IAjusqu'à ce que des garanties puissent être développées. Le président Joe Biden a suivi en octobre 2023 avec un décret exigeant leétablissement de normes de sécurité pour l’IA.

La technologie de l’IA est encore, à bien des égards, un far west, et on se demande si Microsoft a les ressources nécessaires pour mettre un terme aux mauvais acteurs qui utilisent ses produits, en particulier au niveau gouvernemental. Il sera néanmoins intéressant de voir si cette interdiction a un effet sur le projet. Restez à l'écoute pendant que nous continuons à suivre les dernières mises à jour.

Rédacteur principal des nouvelles

TJ Denzer est un joueur et écrivain passionné par les jeux qui a dominé toute sa vie. Il a trouvé son chemin vers la liste de Shacknews fin 2019 et est depuis devenu rédacteur en chef principal de l'information. Entre la couverture médiatique, il participe également notamment à des projets de diffusion en direct comme Indie-licious, axé sur les jeux indépendants, les Shacknews Stimulus Games et le Shacknews Dump. Vous pouvez le joindre au[email protected]et retrouvez-le également sur Twitter@JohnnyChugs.