Pour Arthur Mensch (Mistral AI), l’IA Act se trompe de cible

Pour Arthur Mensch (Mistral AI), l’IA Act se trompe de cible

En tant que pépite hexagonale de l’IA – attendue comme une alternative aux solutions américaines -, l’entreprise Mistral AI est régulièrement interrogée sur sa position à l’égard du règlement européen en cours d’élaboration.

Or pour Arthur Mensch, l’analyse de la startup donne lieu à de nombreuses extrapolations. Sur X, le dirigeant a donc tenu à clarifier son avis à l’égard du texte. Selon le CEO, la version actuelle s’est largement éloignée de ses bases. Initialement, explique-t-il, l’AI Act avait pour objet la sécurité produit. 

Une première version de l’AI Act équilibrée

“Les lois sur la sécurité des produits sont bénéfiques pour les consommateurs. Une utilisation mal conçue des systèmes automatisés de prise de décision peut causer des dommages importants dans de nombreux domaines”, écrit-il.

Dans sa lecture, l’AI Act visait à proportionner la réglementation en fonction du niveau de risque d’un cas d’usage.  Entre application de divertissement et outil de santé, les exigences devraient ainsi différer.

“La première loi européenne sur l’IA a trouvé un équilibre raisonnable à cet égard”, juge le patron de Mistral AI. Et il se défend de toute hostilité à l’encontre d’une réglementation contraignante. “Les nombreux engagements volontaires que nous voyons aujourd’hui n’ont que peu de valeur”, affirme-t-il.

L’accent mis sur la sûreté devrait toutefois demeurer la priorité de l’AI Act, ajoute-il. Mais pour Arthur Mensch, le législateur a désormais un autre cheval de bataille et se proposerait donc de réguler les “modèles fondation”, soit “le moteur derrière certaines applications d’IA.”

publicité

Réglementer les modèles est une erreur

“Nous ne pouvons pas réglementer un moteur dépourvu d’usages. Nous ne réglementons pas le langage C parce qu’il peut être utilisé pour développer des logiciels malveillants. Au contraire, nous interdisons les logiciels malveillants et renforçons les systèmes de réseau (nous réglementons l’utilisation)”, argue-t-il.

Arthur Mensch estime que si les régulateurs souhaitent influer sur le développement des modèles fondation, l’axe de la sécurité produit reste pertinent. Car des règles dans ce domaine “auront naturellement une incidence sur la manière dont nous développons les modèles.”

Problème : Les versions récentes de la loi sur l’IA ont commencé à s’attaquer à des “risques systémiques” mal définis, regrette le dirigeant de Mistral AI. La taxonomie proposée par le texte est qualifiée de “la pire possible”.

Les géants de l’IA favorisés par la loi

Arthur Mensch considère que la réglementation actuelle favorise “les entreprises en place qui peuvent se permettre de faire face à de lourdes exigences de conformité.” Pour celles qui “n’ont pas d’armée d’avocats”, ce serait en revanche la sanction.

“D’un point de vue mécanique, cela va à l’encontre de l’essor de l’écosystème européen de l’IA”, écrit-il encore. Pour faire entendre sa voix, Arthur Mensch ne dispose pas que de Twitter. En septembre, il a rejoint le comité IA Gen chargé de conseiller le gouvernement français sur sa stratégie en IA.

La France s’est depuis associée à l’Allemagne et à l’Italie pour partir en guerre contre la bureaucratie inutile. Le trio encourage l’Europe à placer l’IA au cœur de sa politique industrielle et à adopter une stratégie de soutien de l’offre et donc à son écosystème menacé par l’AI Act.

Leave a Reply

Discover more from Ultimatepocket

Subscribe now to keep reading and get access to the full archive.

Continue reading