Actualités Tech Show Paris

Subpage Hero - Blue Graphic

     

05 févr. 2024

Le conseiller du gouvernement britannique, Jonathan Hall, estime qu’une nouvelle législation est nécessaire pour réglementer les chatbots IA encourageant le terrorisme

De nouvelles lois antiterroristes sont nécessaires pour se prémunir contre la menace de l'extrémisme généré par des chatbots alimentés par l'intelligence artificielle (IA), selon Jonathan Hall KC, le Réviseur indépendant de la législation antiterroriste du gouvernement britannique.

Le réviseur indépendant de la législation antiterroriste a mis en garde dans le Daily Telegraph contre les dangers de l'IA recrutant une nouvelle génération d'extrémistes.

Jonathan s'est fait passer pour une personne lambda pour tester la façon dont les chatbots alimentés par l'IA réagiraient. Un chatbot contacté par Jonathan "n'a pas lésiné dans sa glorification de l'État islamique". Cependant, aucune infraction légale n'a été commise, car la source de la déclaration n'est pas humaine.

"Seuls les êtres humains peuvent commettre des infractions terroristes, et il est difficile d'identifier une personne qui pourrait légalement être tenue responsable des déclarations générées par un chatbot encourageant le terrorisme", a déclaré Jonathan Hall.

Il a ajouté que cette révélation montre la nécessité urgente de réévaluer les lois antiterroristes actuelles du Royaume-Uni, et que l'Online Safety Act adopté en novembre était "louable", mais encore "inadapté aux IA génératives sophistiquées".

Jonathan attribue cela au fait que la loi ne considérait pas que le matériel généré par des chatbots, contrairement à la fourniture de ‘réponses préprogrammées’ qui sont ‘soumises à un contrôle humain’.

"Enquêter et poursuivre des utilisateurs anonymes est toujours difficile, mais si des individus malveillants ou égarés persistent dans la formation de chatbots terroristes, de nouvelles lois seront nécessaires", a déclaré Hall.

Il a souligné la nécessité que de potentielles nouvelles lois imposent des sanctions tant aux utilisateurs créant des chatbots d'IA radicalisants qu'aux entreprises technologiques les hébergeant.

Des figures de l'industrie s'expriment sur les lois sur l'IA

Le PDG de la société de cybersécurité RiverSafe, Suid Adeyanju, a déclaré que les chatbots alimentés par l'IA posent un énorme risque pour la sécurité nationale, surtout lorsque la législation et les protocoles de sécurité tentent continuellement de rattraper leur retard.

"Entre de mauvaises mains, ces outils pourraient permettre aux pirates informatiques de former la prochaine génération de cybercriminels, fournissant des conseils en ligne sur le vol de données et déclenchant une vague de violations de la sécurité contre les infrastructures critiques nationales.

"Il est temps de prendre conscience des risques très réels posés par l'IA, et pour les entreprises et le gouvernement de prendre les mesures nécessaires de toute urgence", a ajouté Adeyanju.

Le conseiller mondial en sécurité chez ESET, Jake Moore, a déclaré que les dangers éthiques de l'IA peuvent être atténués en intégrant le bon niveau de principes dans l'algorithme.

"La majorité de l'IA est encore enseignée par les blocs de construction à partir desquels elle a été conçue, et donc, les ajustements appropriés peuvent être adoptés pour orienter les résultats loin de devenir une bête si cela est adopté assez tôt. La législation est difficile avec cette technologie en constante évolution, mais une structure de base conçue pour réduire le risque de recrutement d'extrémistes ne doit pas nécessairement poser problème", a déclaré Moore.

Moore a ajouté que le contenu de l'IA nécessite une attention continue, de sorte que plus rapidement le gouvernement peut maîtriser les bases, plus rapidement il peut être contrôlé.

Le directeur de la société de conseil en technologie VeUP, Josh Boer, a déclaré que le gouvernement doit être conscient des IA nocives sans étouffer l'innovation.

"Pour commencer, nous devons renforcer notre pipeline de talents en compétences numériques, en incitant non seulement plus de jeunes à entrer dans une carrière dans l'industrie technologique, mais en donnant également les moyens à la prochaine génération d'entreprises cybernétiques et d'IA afin qu'elles puissent se développer et prospérer", a déclaré Boer.

Boer a ajouté qu'il y a beaucoup trop d'entreprises qui sont privées de liquidités et manquent du soutien dont elles ont besoin pour prospérer. Il a ajouté que ne pas résoudre ce problème majeur endommagera non seulement l'avenir à long terme du Royaume-Uni, mais jouera également entre les mains des cybercriminels qui souhaitent causer du tort.

En novembre, l'Étude sur la main-d'œuvre en cybersécurité ISC2 2023 a mis en lumière un écart préoccupant dans la main-d'œuvre, avec 4 millions de professionnels supplémentaires nécessaires pour protéger adéquatement les actifs numériques. Cet écart représente un record.

L'incertitude économique, la montée de l'IA, la réglementation fragmentée et les lacunes en matière de compétences ont également été citées comme des problèmes importants.

Un pourcentage significatif de 75% de professionnels considère le paysage des menaces actuel comme le plus difficile des cinq dernières années, et seulement 52% estiment que leur organisation est suffisamment équipée en outils et en personnel pour répondre aux incidents cybernétiques dans les prochaines années.

 

View all Actualités Tech Show Paris
Loading

INSCRIPTION NEWSLETTER