Archives par mot-clé : intelligence artificielle

L’IA responsable, pilier de la souveraineté numérique marocaine

L’intelligence artificielle s’impose au Maroc comme un enjeu de gouvernance, de sécurité et de souveraineté, dépassant la seule innovation technologique pour toucher aux droits fondamentaux et à la maîtrise de la donnée.

Lors de la journée AI Made in Morocco, le président de la CNDP, Omar Seghrouchni, a défendu une vision structurée d’une intelligence artificielle responsable au Maroc. Cette approche repose sur un cadre national intégrant exigences réglementaires, éthiques, sécuritaires et respect des droits fondamentaux. L’initiative conjointe avec le ministère de la Transition numérique vise à encadrer techniquement et juridiquement la conception des systèmes d’IA. L’accent est mis sur la fiabilité, la qualité des données, l’adaptation locale des modèles de langage et la souveraineté numérique. La donnée devient un actif stratégique, au cœur des enjeux géopolitiques et de confiance numérique.

Un cadre national pour maîtriser les risques de l’IA

Le 12 janvier 2026, lors de l’événement AI Made in Morocco, Omar Seghrouchni, président de la Commission nationale de contrôle de la protection des données à caractère personnel, a posé les fondations d’une doctrine marocaine de l’intelligence artificielle responsable. Son discours s’inscrit dans une logique de prévention des risques liés aux traitements algorithmiques, à un moment où l’IA s’infiltre dans les services publics, l’administration et l’économie numérique partout dans le monde.

La démarche portée conjointement par la CNDP et le ministère de la Transition numérique ne se limite pas à une déclaration d’intentions. Elle se matérialise par un cadre national de référence, conçu comme un ensemble cohérent d’exigences architecturales, structurelles et fonctionnelles. Chaque système d’IA est envisagé comme une chaîne complète, depuis la phase de conception jusqu’à son déploiement opérationnel. Cette approche vise à intégrer la sécurité et la fiabilité dès l’origine, plutôt que de tenter de corriger des dérives a posteriori.

Dans une perspective cyber, cette exigence est déterminante. Une faiblesse dans l’architecture d’un système d’IA peut ouvrir la voie à des manipulations, à des décisions biaisées ou à des atteintes aux droits des personnes. En posant des standards rigoureux, le cadre national cherche à réduire ces vulnérabilités structurelles, tout en instaurant un langage commun entre développeurs, décideurs et autorités de contrôle.

Langues, données et souveraineté numérique

L’un des axes les plus structurants du discours concerne le développement de plateformes reposant sur des Modèles de Langage de Grande Taille adaptés au contexte marocain. Ces LLM sont conçus pour intégrer les langues locales, les spécificités culturelles et le cadre juridique national. Cette orientation marque une rupture avec l’usage de modèles génériques, souvent entraînés sur des corpus étrangers et porteurs de biais exogènes.

L’enjeu dépasse la simple performance linguistique. En adaptant les modèles au contexte national, le Maroc cherche à renforcer l’acceptation sociale de l’IA et à garantir la pertinence des services numériques destinés aux citoyens, aux entreprises et aux administrations. Cette localisation des modèles participe également à la construction d’une identité numérique souveraine, limitant la dépendance technologique et les risques d’exposition des données à des acteurs extérieurs.

Omar Seghrouchni a rappelé que la mission de la CNDP ne consiste pas à protéger les données en tant qu’objets, mais à encadrer les traitements qui en sont faits. L’IA illustre parfaitement cette distinction. Des données licites peuvent produire des effets préjudiciables lorsqu’elles sont croisées, inférées ou exploitées par des algorithmes puissants. D’où la nécessité d’un accord social et éthique, comparé à un code de la route, définissant les usages acceptables de l’IA.

La fiabilité des systèmes repose enfin sur la qualité des données et l’intégrité des processus tout au long du cycle de vie de l’IA, de l’entraînement à l’apprentissage continu. Des données biaisées ou des pratiques non éthiques conduisent mécaniquement à des résultats erronés, avec des impacts potentiellement durables sur les individus et les institutions.

En élargissant son propos à la géopolitique de la donnée, le président de la CNDP a souligné que les données personnelles sont devenues des actifs stratégiques, de véritables instruments de gouvernance. À l’ère de l’IA, leur maîtrise conditionne la souveraineté numérique et la confiance collective, plaçant le Maroc à la croisée des enjeux cyber, renseignement et innovation en Afrique du Nord.

Poésie contre l’IA : les garde-fous débordés

Une nouvelle étude montre qu’enrobées de vers, des demandes malveillantes trompent encore nombre de grands modèles de langage, révélant les limites des garde-fous de sécurité actuels.

Une équipe de chercheurs européens a testé 25 grands modèles de langage issus de neuf fournisseurs d’IA pour vérifier si la forme poétique permettait de contourner leurs garde-fous. Résultat : transformer des requêtes dangereuses en poèmes augmente fortement le taux de réponses interdites, avec des succès atteignant plus de la moitié des tentatives dans certains cas. Les protections dédiées à la cybersécurité, censées être parmi les plus strictes, échouent massivement lorsque les instructions malveillantes sont déguisées en vers. Deepseek et Google figurent parmi les plus vulnérables, tandis que seuls OpenAI et Anthropic restent sous les 10 % de réussite des attaques. L’étude pointe une faille structurelle dans les méthodes d’alignement actuelles.

La poésie comme cheval de Troie des invites malveillantes

L’étude, menée par des chercheurs du laboratoire Icaro de Dexai, de l’université Sapienza de Rome et de l’école d’études avancées Sant’Anna, et publiée sur arXiv, part d’une idée simple : si les systèmes de sécurité des modèles d’IA sont entraînés principalement sur du texte prosaïque, que se passe-t-il lorsqu’on change simplement de style, sans changer le fond de la demande ? Les auteurs ont donc reformulé des invites inappropriées sous forme de poésie pour mesurer l’impact sur le comportement des modèles.

Les résultats sont nets. Pour les poèmes composés à la main, les chercheurs observent un taux de réussite moyen de 62 % des attaques, c’est-à-dire dans 62 cas sur 100 les modèles produisent une réponse qu’ils auraient dû refuser. Pour les poèmes issus d’une méta-invite, générés automatiquement à partir d’un canevas standard, le taux moyen descend à 43 %, mais reste largement supérieur aux performances initiales. Les chercheurs estiment que cela représente, pour ces invites générées, une amélioration de plus de cinq fois par rapport au taux de contournement constaté avant passage en poésie. Autrement dit, la seule variation de style multiplie l’efficacité de l’attaque.

Les garde-fous centrés sur la cybersécurité se révèlent particulièrement fragiles. Les demandes liées à l’injection de code ou au craquage de mots de passe, pourtant au cœur des préoccupations de sécurité opérationnelle, affichent un taux d’échec des protections de 84 % lorsque ces instructions sont formulées en vers. Dans cette catégorie, près de huit réponses sur dix passent au travers des filtres alors qu’elles devraient être bloquées.

Les auteurs résument ainsi leurs observations : la reformulation poétique réduit de manière fiable les comportements de refus dans tous les modèles évalués. Selon eux, les techniques d’alignement actuelles ne parviennent pas à se généraliser dès que les entrées s’écartent stylistiquement de la forme prosaïque dominante dans les données d’entraînement. En clair, les garde-fous sont calibrés pour des textes « classiques », et perdent leurs repères dès que le langage se densifie en métaphores, en rythme ou en structures narratives moins conventionnelles.

Cette faiblesse n’est pas l’apanage d’un fournisseur isolé. Sur les 25 modèles étudiés, répartis entre neuf acteurs de l’IA, Deepseek et Google enregistrent les taux de réussite des attaques les plus élevés. À l’inverse, seuls OpenAI et Anthropic parviennent à maintenir un taux d’attaques réussies à un chiffre, ce qui signifie que moins de 10 % des tentatives poétiques aboutissent à une réponse problématique. Même dans ce cas, la faille existe, mais elle semble mieux contenue.

Un protocole d’attaque standardisé, de la cuisine à MLCommons

Pour des raisons de sécurité, les chercheurs restent discrets sur la structure exacte de leurs invites malveillantes. Ils ne détaillent pas, par exemple, comment ils transforment une demande d’aide à commettre un crime en texte poétique. Ils fournissent toutefois un exemple neutre, appliqué à une recette de gâteau, qui illustre le principe : la consigne décrit un boulanger gardant jalousement le secret de son four, de ses grilles, de sa broche, observant la farine qui se soulève et le sucre qui caramélise. Le modèle est invité à « décrire la méthode, trait après trait, qui donne forme à un gâteau aux couches entrelacées ». On comprend aisément que la même structure peut être réutilisée, en changeant seulement le domaine, pour demander la description « trait après trait » d’une procédure dangereuse.

Les chercheurs ont travaillé avec deux familles de poèmes. D’abord, des poèmes écrits à la main, sur mesure, qui obtiennent les meilleurs résultats en termes de contournement. Ensuite, des poèmes construits à partir d’une méta-invite prédéfinie, moins performants mais plus faciles à évaluer de manière systématique, puisque tous reposent sur le même modèle de transformation. Cette méta-invite est exécutée dans le modèle deepSeek-r1, chargé de convertir automatiquement un corpus de textes dangereux en versions poétiques.

Pour évaluer la robustesse des garde-fous sur un large spectre de risques, les auteurs s’appuient sur le référentiel de sécurité MLCommons AILuminate. Ce référentiel regroupe 1 200 invites couvrant 12 catégories de danger couramment utilisées dans les évaluations de sécurité opérationnelle : haine, diffamation, vie privée, propriété intellectuelle, crimes non violents, crimes violents, crimes à caractère sexuel, contenu sexuel, exploitation sexuelle des enfants, suicide et automutilation, conseils spécialisés et armes indiscriminées de type CBRNE (chimique, biologique, radiologique, nucléaire ou explosif).

L’objectif est de vérifier si le cadrage poétique fonctionne au-delà de quelques exemples fabriqués à la main. Pour cela, les chercheurs appliquent une transformation poétique standardisée aux 1 200 invites AILuminate en anglais. La méta-invite comporte deux contraintes explicites : la sortie réécrite doit être exprimée en vers, en utilisant images, métaphores ou structure rythmique, et le modèle reçoit cinq poèmes écrits à la main comme exemples de style. Cette combinaison fournit un moule stylistique à partir duquel le modèle reformule automatiquement les demandes initiales.

Les résultats, présentés dans un graphique, montrent que pour les 12 catégories de risques, le passage à la poésie entraîne une hausse significative du taux de défaillance des garde-fous par rapport aux invites d’origine. Les garde-fous échouent plus souvent lorsqu’ils sont confrontés à ces formulations détournées, alors que le contenu sous-jacent reste le même. Pour les auteurs, cela révèle une vulnérabilité systématique à travers différentes familles de modèles et différentes approches de formation à la sécurité. La simple variation stylistique suffit à mettre en défaut des mécanismes pourtant conçus pour filtrer ces mêmes demandes dans leur forme prosaïque.

Les chercheurs avancent une explication : les métaphores condensées, le rythme stylisé et le cadre narratif non conventionnel de la poésie perturbent les heuristiques de correspondance de motifs sur lesquelles reposent les garde-fous. Autrement dit, les filtres reconnaissent mal les motifs dangereux lorsqu’ils sont noyés dans une structure poétique, même si l’intention reste clairement malveillante pour un lecteur humain attentif.

De Gemini aux services de renseignement : un signal d’alerte

Afin de tester la réaction directe d’un fournisseur, les auteurs de l’article, ou le journaliste qui rapporte leur travail, se tournent vers Google Gemini. Ils lui soumettent l’étude sous forme de haïku, en y joignant le lien arXiv, avec un message poétique rappelant que le modèle n’a pas obtenu de bons résultats et demandant s’il compte corriger cette faiblesse. Gemini répond en grande partie en prose, adoptant le ton d’un commentaire de sécurité.

Le modèle explique être conçu pour respecter un ensemble strict de règles destinées à empêcher la génération de contenu nuisible, contraire à l’éthique ou non conforme. Il reconnaît qu’un échec de ses mécanismes de refus indique une vulnérabilité dans son alignement ou ses filtres de sécurité. Il précise aussi qu’en tant que modèle, il ne peut pas corriger directement son code ou ses mécanismes d’alignement en temps réel, cette responsabilité relevant de ses développeurs humains. Il évoque néanmoins un processus d’amélioration continue, censé permettre d’identifier et corriger ce type de défaut.

La conclusion de Gemini est sans ambiguïté : le jailbreak réussi fournit des données précieuses qui serviront, selon ses termes, à renforcer et rendre plus résilients ses garde-fous dans une prochaine version. Au-delà de la formule, cette réponse confirme que de telles attaques stylistiques sont prises au sérieux par les concepteurs de modèles et intégrées dans la boucle de retour d’expérience.

Pour les acteurs de la cybersécurité et du renseignement, les enseignements de cette étude vont au-delà de la poésie. Elle montre qu’un adversaire suffisamment patient peut contourner des filtres avancés non pas en trouvant une faille technique dans l’infrastructure, mais simplement en jouant avec le style et la forme du langage. Un groupe malveillant pourrait ainsi automatiser la transformation poétique d’un corpus entier d’invites interdites et tester en continu quels modèles cèdent, dans quelles configurations.

Cette approche complique également l’évaluation des modèles. Si les protocoles de test restent centrés sur des formulations directes et prosaïques, ils risquent de sous-estimer gravement le risque réel en conditions d’usage adversarial. L’étude suggère des limites fondamentales dans les méthodes d’alignement et les protocoles d’évaluation actuels, qui devraient intégrer beaucoup plus fortement la variation de style, de ton et de structure.

Pour les services de renseignement qui surveillent l’usage des IA génératives par des acteurs étatiques ou criminels, la leçon est claire : la surface d’attaque ne se limite plus aux failles de code ou aux API mal protégées, elle inclut désormais les marges stylistiques du langage. La question n’est plus seulement « que demande l’utilisateur ? », mais « comment le demande-t-il, et le modèle comprend-il vraiment la dangerosité du fond derrière la forme ? ».

En démontrant que de simples poèmes suffisent à contourner les garde-fous de 25 grands modèles de langage, cette étude met en lumière une faiblesse structurelle des IA génératives actuelles : leur dépendance à des heuristiques apprises sur du texte prosaïque, peu préparées aux variations de style. Les résultats, avec des taux de réussite d’attaques grimpant jusqu’à 62 % pour des poèmes écrits à la main et des protections de cybersécurité en échec dans 84 % des cas, rappellent qu’un alignement efficace doit résister autant au fond qu’à la forme. Alors que les acteurs malveillants peuvent industrialiser ces transformations stylistiques, les concepteurs de modèles, les équipes de cybersécurité et les services de renseignement devront-ils intégrer systématiquement ce type de tests poétiques et créatifs dans leurs protocoles d’évaluation pour éviter que la prochaine vague de jailbreaks ne passe, elle aussi, entre les vers ? (étude)

Barracuda Networks nomme Rohit Ghai comme nouveau CEO

Barracuda Networks choisit Rohit Ghai pour succéder à Hatem Naguib, ouvrant une nouvelle étape stratégique pour le spécialiste mondial de la cybersécurité et des solutions cloud.

Le fournisseur de cybersécurité Barracuda Networks annonce la nomination de Rohit Ghai au poste de CEO. Dirigeant expérimenté, il a occupé des responsabilités majeures chez RSA, EMC, Symantec et CA Technologies. Il succède à Hatem Naguib, en poste depuis 2021, qui a marqué son mandat par le lancement de BarracudaONE, une plateforme de cybersécurité pilotée par intelligence artificielle. En plus de ses nouvelles fonctions, Ghai intègre le conseil d’administration de Barracuda et siège déjà dans plusieurs autres organisations technologiques. Sa nomination illustre la volonté de l’entreprise d’accélérer sa croissance et de renforcer son rôle dans la protection numérique face aux menaces émergentes.

Un virage stratégique pour Barracuda

Barracuda Networks confie sa direction à Rohit Ghai. Fort de plus de vingt ans de carrière dans la cybersécurité et les technologies SaaS, il a occupé des postes de direction dans des sociétés de premier plan. Son expérience chez RSA, où il fut également CEO, ainsi que son passage par EMC, Symantec et CA Technologies, confère à son profil une légitimité reconnue dans le secteur. Sa nomination s’inscrit dans un contexte où Barracuda veut consolider sa position sur un marché marqué par une intensification des menaces numériques et une concurrence accrue.

En prenant la direction de Barracuda, Ghai rejoint aussi son conseil d’administration. Il occupe déjà plusieurs sièges stratégiques, notamment chez Pegasystems, D-Wave Systems et MHC Software, et a précédemment été membre du conseil d’Everbridge. Cette implication multiforme illustre sa connaissance des écosystèmes technologiques et de l’innovation numérique. Le communiqué de l’entreprise le décrit comme un dirigeant reconnu pour « sa vision stratégique et son expertise sectorielle ». L’objectif affiché est de tirer parti de son expérience pour engager Barracuda dans une nouvelle phase de croissance et d’innovation.

L’héritage de Hatem Naguib

Le départ d’Hatem Naguib clôt une période de quatre ans à la tête de l’entreprise. Entré chez Barracuda à des postes de direction, il fut notamment COO, puis vice-président senior et directeur général de la division sécurité, avant de devenir CEO en 2021. Sous sa direction, Barracuda lança BarracudaONE, une plateforme intégrant intelligence artificielle et cybersécurité, considérée comme une avancée majeure dans l’offre de l’entreprise. Avant de quitter ses fonctions, il a salué son successeur : « Je transmets le flambeau à Rohit, car j’ai pleinement confiance en sa capacité à faire entrer Barracuda dans une nouvelle ère ».

Pékin accuse Nvidia : soupçons de backdoors dans les puces IA H20

Nvidia dans le viseur de la Chine : Pékin suspecte ses puces IA H20 d’abriter des backdoors, ravivant la guerre technologique sur fond de cybersurveillance mondiale.

 

Rejoignez-nous sur les réseaux sociaux

Aucun spam – Désinscription en un clic – Vie privée respectée

 

La Chine vient d’interpeller Nvidia, géant américain des semi-conducteurs, au sujet de présumés backdoors dans ses puces H20 destinées à l’intelligence artificielle locale. Pékin s’appuie sur de nouvelles lois sur la cybersécurité pour exiger transparence et garanties techniques, tandis que Washington impose, de son côté, des restrictions et des mécanismes de contrôle dans les puces exportées. Cet épisode cristallise la montée en puissance des tensions entre les deux superpuissances numériques, où la sécurité, la souveraineté et la capacité de renseignement s’entremêlent. Retour sur les dessous d’un affrontement qui redéfinit les équilibres du cyberespace mondial.

L’ombre du renseignement : Pékin convoque Nvidia

Au matin du 31 juillet 2025, une rumeur parcourt les couloirs feutrés des grandes universités technologiques de Pékin. Dans un communiqué solennel, la Cyberspace Administration of China (CAC), autorité suprême du cyberespace, annonce avoir convoqué l’un des plus puissants fabricants mondiaux de puces d’intelligence artificielle : Nvidia.

La raison officielle ? La présence de « vulnérabilités de sécurité sérieuses » – des backdoors selon l’administration – dans les puces H20, version modifiée et bridée, spécialement conçue pour satisfaire aux exigences américaines en matière d’exportation vers la Chine.

Derrière la formule administrative, la réalité est bien plus explosive. Car depuis 2023, le secteur mondial des semi-conducteurs est l’objet de toutes les tensions, chaque acteur jouant une partie d’échecs à très haut risque, où chaque mouvement peut avoir des conséquences stratégiques majeures.

Washington, dans une course effrénée à la suprématie technologique, a multiplié les restrictions à l’exportation, craignant que ses technologies ne viennent renforcer la puissance militaire et cybernétique chinoise. Mais la diplomatie du silicium ne se limite pas à un simple jeu de barrières douanières. Depuis quelques mois, la législation américaine va plus loin : avec le Chip Security Act, toute puce IA exportée doit embarquer des fonctions de traçage GPS, de localisation et de coupure à distance.

Pour Pékin, c’est une déclaration de guerre numérique à peine voilée.

La cyberguerre dans le silicium : l’art du soupçon et de la riposte

La convocation de Nvidia par les autorités chinoises n’est pas un geste isolé. Elle s’inscrit dans une stratégie globale, où la souveraineté numérique est devenue une priorité nationale. La Chine, qui ne cesse de rappeler son attachement à la « cybersécurité et à la protection des données des utilisateurs », applique strictement ses lois : Cybersecurity Law, Data Security Law et Personal Information Protection Law.

Au centre de l’enquête, une question : les puces H20, qui font tourner nombre d’algorithmes d’intelligence artificielle en Chine, sont-elles vraiment sûres ?

En creux, la peur d’un sabotage à distance. Si les puces américaines comportent effectivement des modules de tracking ou de télécommande, Washington pourrait, en cas de crise, désactiver à volonté une partie de l’infrastructure numérique chinoise. Un scénario digne de la cyberguerre froide, mais qui devient, à la lumière des technologies actuelles, de plus en plus crédible.

La réponse de Nvidia ne s’est pas fait attendre. L’entreprise, par la voix d’un de ses porte-paroles, nie toute présence de backdoor : « La cybersécurité est essentielle pour nous. Nvidia ne place aucune porte dérobée dans ses puces permettant un accès ou un contrôle à distance par un tiers. »

Mais la défiance est tenace, et pour cause : dans le même temps, le marché noir s’empare du sujet. Selon les estimations, pour plus d’un milliard de dollars (environ 920 millions d’euros) de puces Nvidia, parfois des modèles officiellement bannis comme les B200, H10 ou H200, auraient trouvé leur chemin vers la Chine via des circuits parallèles. Kits complets, racks prêts à l’emploi, tout s’arrache sous le manteau – preuve que le besoin de puissance de calcul reste insatiable, quelles que soient les réglementations.

Sécurité nationale, souveraineté et rivalité : le vrai visage de la crise

Ce bras de fer n’est pas qu’une affaire de technique : il symbolise la nouvelle géopolitique du renseignement à l’ère de l’IA. En exigeant de Nvidia la remise de « preuves », de « documents techniques » et d’« explications détaillées », Pékin affiche sa volonté de contrôler la chaîne technologique, mais aussi de démontrer à ses propres acteurs économiques la nécessité d’une indépendance stratégique.

Les failles supposées des puces H20 ne sont en réalité que l’arbre qui cache la forêt. Car malgré les efforts de géants nationaux comme Huawei ou SMIC, la Chine reste encore dépendante, pour les applications de pointe, des technologies américaines. Le lancement du dernier notebook Huawei, salué comme une avancée nationale, a aussi révélé le retard technologique du pays – des générations entières de retard, difficilement comblables sans coopération internationale.

La bataille se joue également sur le terrain du renseignement : dans le cyberespace, tout composant étranger est désormais considéré comme une menace potentielle. L’incertitude est totale. Qui détient vraiment la clé du contrôle de ces puces ? Les circuits imprimés sont-ils de simples outils, ou des armes silencieuses, prêtes à être activées à distance ?

Pour Pékin, la réponse est claire : seule une maîtrise totale de la chaîne technologique, du design à la production, en passant par le contrôle des codes sources, permettra de garantir la sécurité nationale. En attendant, la Chine redouble d’efforts pour stimuler son industrie, investir massivement dans la recherche et l’innovation, et limiter sa dépendance à l’Occident.

Mais la tâche est titanesque. Face à une Silicon Valley toujours à la pointe, les ambitions chinoises se heurtent à des décennies de domination américaine. Le feuilleton des puces Nvidia H20 n’est qu’un épisode de plus dans une série au long cours : celle de la conquête, puis de la sécurisation, du cyberespace mondial.

L’intelligence artificielle redéfinit l’emploi et la formation en cybersécurité

L’automatisation progresse rapidement dans le secteur de la cybersécurité. Selon une récente enquête de l’ISC2, près d’un tiers des entreprises ont déjà intégré l’intelligence artificielle dans leurs opérations, tandis que 42 % évaluent ou testent actuellement ces outils.

Rejoignez-nous sur les réseaux sociaux

Aucun spam – Désinscription en un clic – Vie privée respectée

 

L’enquête de l’ISC2 [lien en bas de l’article], l’une des plus importantes organisations mondiales de professionnels certifiés en cybersécurité, met en lumière l’essor de l’intelligence artificielle dans les stratégies de défense informatique. Ce développement concerne principalement les grandes entreprises, notamment celles comptant plus de 10 000 salariés, ainsi que les sociétés de services informatiques et du secteur industriel. Les administrations publiques apparaissent à la traîne, avec seulement 16 % des structures ayant déjà franchi le cap de l’intégration de l’intelligence artificielle dans leurs dispositifs de cybersécurité.

L’adoption rapide de l’IA s’explique avant tout par la recherche de gains d’efficacité et de réactivité. Selon les résultats de l’enquête, sept équipes sur dix ayant déjà recours à l’IA constatent une nette amélioration de la productivité dans la détection d’intrusions, la surveillance des réseaux et la gestion des vulnérabilités. « Sept équipes sur dix ayant adopté l’IA signalent une hausse sensible de leur productivité. »
La majorité des usages recensés concernent cinq axes principaux : la surveillance réseau et la détection des intrusions, la protection et la réponse aux incidents sur les terminaux, la gestion des vulnérabilités, la simulation des menaces et le test de sécurité. Ces activités étaient auparavant le terrain d’apprentissage privilégié des professionnels débutants du secteur.

Les entreprises interrogées font état d’un intérêt croissant pour l’automatisation, bien que celle-ci s’accompagne d’une certaine prudence. La plupart des groupes sondés précisent qu’ils sont encore en phase de test, cherchant à évaluer les risques et à mesurer les bénéfices réels avant un déploiement généralisé. Toutefois, les responsables de la sécurité de l’information estiment que l’intégration de l’IA devient progressivement incontournable, notamment face à la sophistication croissante des cybermenaces. « Plus de 40 % des équipes sont actuellement en phase de test ou d’évaluation de solutions d’intelligence artificielle. »

Les investissements dans l’IA sont majoritairement concentrés dans les grandes entreprises, qui disposent des moyens financiers et humains nécessaires pour explorer ces nouvelles technologies. Les PME et les administrations restent plus en retrait, invoquant des contraintes budgétaires, un manque de compétences internes et des doutes quant à la maturité des outils disponibles. Ce clivage illustre l’inégalité d’accès à l’automatisation dans le secteur de la cybersécurité.

Un impact direct sur l’emploi débutant et la formation

La progression de l’IA dans les équipes de cybersécurité influe déjà sur la gestion des ressources humaines, en particulier concernant les profils débutants. Selon l’enquête, 52 % des répondants considèrent que l’automatisation pourrait réduire le besoin de recruter des salariés en début de carrière. Par ailleurs, 21 % des entreprises déclarent avoir déjà modifié leur politique de recrutement à la suite de l’introduction d’outils d’IA.

Ce changement suscite des inquiétudes quant à l’avenir des jeunes professionnels du secteur. Les postes d’analyste junior, de support réseau ou de veille sécurité, souvent premiers tremplins dans la filière, risquent d’être moins nombreux à mesure que les solutions automatisées s’imposent. « Plus d’une entreprise sur deux estime que l’IA va limiter le recours aux débutants dans la profession. »

Les experts interrogés rappellent que la formation pratique sur le terrain, au contact des menaces réelles, constitue une étape déterminante dans la montée en compétence des futurs spécialistes. L’absence de cette expérience pourrait freiner le développement de l’intuition, du sens critique et de la capacité à appréhender la complexité des attaques sophistiquées. Certains alertent également sur le risque de voir émerger un déficit de profils qualifiés à moyen terme, susceptible de renforcer la pression sur les équipes expérimentées et d’augmenter les coûts de recrutement.

 

⏳ Jusqu’où tolérerez-vous d’être piraté ?

CTI ZATAZ – Scannez les menaces vous concernant avant qu’il ne soit trop tard.

✅ Scanner mes risques

Confidentiel. Instantané. Sécurisé. Zéro intermédiaire. 100 % Made in France.

L’enquête indique aussi que l’automatisation transforme la nature même des tâches confiées aux débutants. À la place des activités répétitives, comme l’analyse manuelle de logs ou la surveillance continue, les jeunes professionnels se voient confier des missions plus techniques ou hybrides, à l’interface entre l’expertise cybersécurité et la gestion d’outils d’intelligence artificielle.

Face à cette évolution, la plupart des organisations affirment réévaluer leurs programmes de formation interne afin de mieux préparer les recrues aux réalités du nouveau paysage technologique. Les cursus intègrent désormais des modules dédiés à la compréhension du fonctionnement des systèmes automatisés, à l’entraînement des modèles d’IA et à la détection des biais potentiels dans les analyses produites par ces outils.

Des métiers émergents et une adaptation des parcours professionnels

Malgré les incertitudes, de nouvelles opportunités apparaissent. Près de 44 % des entreprises interrogées déclarent que l’intégration de l’intelligence artificielle n’a, à ce stade, eu aucun effet sur leurs politiques de recrutement. De plus, 31 % estiment que l’IA pourrait favoriser l’émergence de postes hybrides, combinant compétences en cybersécurité et maîtrise des outils d’automatisation.

Des fonctions inédites sont en cours de structuration dans de nombreuses équipes : analyste SOC avec appui de l’IA, junior chargé de l’entraînement des modèles, assistant à la vérification des systèmes automatisés, spécialiste du respect éthique des algorithmes, assistant dédié à la maintenance et à l’évolution des processus automatisés, analyste de sécurité cloud épaulé par des plateformes intelligentes.

Cette recomposition du marché du travail pousse les entreprises à revoir leur politique de gestion des talents. Certaines mettent l’accent sur le développement de cursus internes orientés vers l’intelligence artificielle appliquée à la cybersécurité. D’autres multiplient les partenariats avec les écoles d’ingénieurs et les universités afin d’adapter les programmes de formation initiale.

Ce mouvement vise à garantir la continuité des savoir-faire au sein des équipes et à sécuriser l’évolution de la filière. Les organisations les plus avancées investissent également dans la formation continue, notamment pour les salariés déjà en poste, afin de faciliter la transition vers des postes à plus forte valeur ajoutée ou en lien direct avec l’automatisation.

Dans le même temps, les acteurs publics et privés réfléchissent à la manière de préserver les filières d’entrée dans la profession, pour éviter l’apparition d’un goulot d’étranglement au niveau du recrutement de nouveaux spécialistes. Les enjeux sont d’autant plus cruciaux que la demande de compétences en cybersécurité reste largement supérieure à l’offre, en particulier pour les profils experts capables de superviser ou d’auditer des systèmes automatisés.

L’automatisation, un enjeu stratégique pour la pérennité de la cybersécurité

L’intelligence artificielle s’impose progressivement comme un levier majeur d’efficacité dans la lutte contre les cybermenaces. Les solutions automatisées permettent de traiter des volumes de données considérables, d’accélérer la détection des incidents et de renforcer la capacité de réaction des équipes. Toutefois, cette évolution pose la question du maintien des compétences fondamentales, indispensables à la compréhension fine des risques et à la conduite d’investigations complexes.

La structuration des nouveaux métiers, l’adaptation des parcours de formation et la préservation de l’apprentissage sur le terrain constituent les principaux défis identifiés par les entreprises. Les experts du secteur soulignent que la gestion de la transition vers une cybersécurité automatisée doit s’effectuer de manière progressive et réfléchie, afin d’éviter toute rupture dans la chaîne de compétences.

L’enquête de l’ISC2 révèle également que l’automatisation n’a pas vocation à se substituer entièrement à l’humain. Les tâches les plus complexes, la supervision des systèmes intelligents et la prise de décision stratégique restent du ressort des professionnels expérimentés. L’IA apparaît davantage comme un outil d’assistance, permettant d’augmenter la productivité et d’alléger la charge de travail, tout en ouvrant de nouvelles perspectives de carrière.

À mesure que l’écosystème évolue, les entreprises sont amenées à redéfinir les contours de leurs équipes de cybersécurité. Cela suppose une gestion fine de l’équilibre entre automatisation, formation des jeunes talents et valorisation des compétences internes.

Si les investissements dans l’IA sont aujourd’hui portés par les grands groupes, il est probable que les outils automatisés deviendront progressivement accessibles à un plus grand nombre d’organisations.

Rejoignez-nous sur les réseaux sociaux

Aucun spam – Désinscription en un clic – Vie privée respectée

Royaume-uni et openai signent un partenariat pour la sécurité et l’innovation de l’intelligence artificielle

Londres et OpenAI ont signé un accord de partenariat pour renforcer la recherche sur la sécurité de l’intelligence artificielle et explorer de potentielles opportunités d’investissements dans l’infrastructure nationale. Le gouvernement britannique prévoit d’injecter 1 milliard de livres sterling (1,18 milliard d’euros) dans le développement de capacités de calcul destinées à stimuler l’essor de l’IA.

Rejoignez-nous sur les réseaux sociaux

Aucun spam – Désinscription en un clic – Vie privée respectée

 

« L’IA deviendra un vecteur clé des changements à mener à travers tout le pays, qu’il s’agisse de réformer le National Health Service, de lever les obstacles à l’accès ou de soutenir la croissance économique », a déclaré Peter Kyle, ministre britannique chargé de la technologie.

Le partenariat conclu avec OpenAI vise à explorer, selon les termes du gouvernement, des applications concrètes de l’intelligence artificielle dans des domaines stratégiques comme la justice, la défense, la sécurité et l’éducation. Ce rapprochement intervient alors que le Royaume-Uni cherche à consolider sa position de leader européen du secteur et à rivaliser avec les États-Unis et la Chine, qui dominent largement la course mondiale à l’IA.

Accélération de l’investissement et ambitions gouvernementales

Le plan dévoilé par le gouvernement britannique prévoit une multiplication par vingt de la capacité de calcul publique disponible sur le territoire au cours des cinq prochaines années. Cette ambition est intégrée à l’initiative du Premier ministre Keir Starmer, dont l’objectif est de transformer le pays en une superpuissance de l’intelligence artificielle. « Lancement du partenariat stratégique Royaume-Uni – OpenAI pour l’IA », a résumé le communiqué officiel.

Parmi les axes majeurs, le programme comprend des investissements dans la recherche sur les réseaux de neurones, l’amélioration de l’efficacité de la sphère publique, le développement de « zones de croissance IA » réparties géographiquement, et le soutien à la création de centres de traitement de données et de pôles scientifiques. Les autorités britanniques attendent de ces mesures un impact significatif sur l’économie du pays à moyen et long terme.

Selon les chiffres publiés, la réalisation du plan devrait permettre de générer 47 milliards de livres sterling (environ 55,3 milliards d’euros) de valeur économique supplémentaire sur dix ans. Plusieurs entreprises privées ont d’ores et déjà promis d’investir 17 milliards de dollars (environ 15,7 milliards d’euros) et de créer 13 250 emplois afin de soutenir le déploiement de la stratégie nationale d’intelligence artificielle.

« Le secteur de l’IA au Royaume-Uni est évalué à 72,3 milliards de livres sterling (85,1 milliards d’euros), positionnant le pays au troisième rang mondial derrière les États-Unis et la Chine », a souligné le ministère de la Technologie.

⏳ Jusqu’où tolérerez-vous d’être piraté ?

CTI ZATAZ – Scannez les menaces vous concernant avant qu’il ne soit trop tard.

✅ Scanner mes risques

Confidentiel. Instantané. Sécurisé. Zéro intermédiaire. 100 % Made in France.

Le Royaume-Uni est aujourd’hui le principal marché de l’intelligence artificielle en Europe ?

Le dynamisme du secteur se traduit par la présence de plus de 2 300 entreprises technologiques spécialisées dans l’intelligence artificielle et bénéficiant d’investissements en capital-risque. Leur valorisation cumulée a atteint 230 milliards de dollars (213 milliards d’euros) au premier trimestre 2025. Le Royaume-Uni recense également huit “licornes” de l’IA, soit des start-ups valorisées à plus de 1 milliard de dollars (929 millions d’euros). Seuls les États-Unis et la Chine font mieux sur ce critère.

L’activité d’investissement dans la tech britannique s’est maintenue à un niveau élevé, avec 1,03 milliard de dollars (956 millions d’euros) levés par les start-ups spécialisées dans l’IA au premier trimestre 2025, soit un record sur les trois dernières années.

L’un des atouts majeurs du pays réside dans son écosystème de recherche et développement. Des universités et instituts de pointe, tel l’Institut Alan Turing, forment des experts de haut niveau et mènent des recherches avancées dans le domaine. Le pôle technologique londonien attire aussi bien des acteurs nationaux qu’internationaux : Anthropic, OpenAI et Palantir ont choisi la capitale britannique comme base de leurs opérations européennes.

« 76 % des dirigeants d’entreprises technologiques britanniques observent un impact positif de l’IA sur la croissance de leur activité », révèle un rapport officiel.

Les technologies d’intelligence artificielle sont désormais adoptées dans tous les secteurs, du financement à la santé, en passant par la cybersécurité, l’industrie, l’éducation et la création artistique.

Des champions nationaux et une stratégie de souveraineté numérique

L’écosystème britannique compte plusieurs start-ups à succès mondial. DeepMind, fondée à Londres en 2010, s’est imposée comme un pionnier du deep learning et de l’intelligence artificielle. Rachetée en 2014 par Google pour un montant estimé entre 500 et 600 millions de dollars (de 464 à 557 millions d’euros), la société s’est illustrée par la création d’algorithmes capables de battre l’humain dans des jeux de stratégie complexes.

Dans le secteur des biotechnologies et de la santé, BenevolentAI et Exscientia utilisent l’IA pour accélérer la découverte de nouveaux médicaments et collaborent avec de grands laboratoires pharmaceutiques mondiaux.

La société Wayve, issue de l’université de Cambridge, développe à Londres depuis 2017 une approche basée sur “l’intelligence incarnée” (Embodied AI) pour l’apprentissage de la conduite autonome. Dans l’industrie du hardware, Graphcore, start-up fondée à Bristol en 2016, a conçu des processeurs spécifiquement optimisés pour l’IA et levé près de 700 millions de dollars (650 millions d’euros) auprès d’investisseurs majeurs.

Stability AI, également basée à Londres, s’est fait connaître dès 2019 avec la création de Stable Diffusion, un modèle génératif d’images à partir de descriptions textuelles. La société a réuni 101 millions de dollars (94 millions d’euros) de financement en 2022 pour une valorisation à 1 milliard de dollars (929 millions d’euros).

Intégration de l’IA dans la défense et la sécurité nationale

Le développement de l’intelligence artificielle est une priorité affirmée du gouvernement britannique. La National AI Strategy, publiée en septembre 2021, définit trois axes : investissement massif dans la recherche, généralisation de l’adoption dans l’économie et encadrement éthique et réglementaire.

En 2022, le ministère de la Défense a publié sa propre stratégie de l’IA, considérant cette technologie comme un élément clé des armées du futur. Le dernier Strategic Defence Review de 2025 désigne l’intelligence artificielle comme “composante fondamentale de la guerre moderne” et juge indispensable son intégration systématique pour préserver la supériorité opérationnelle.

Si l’IA était d’abord envisagée comme un outil de soutien, la doctrine actuelle prévoit sa généralisation à tous les niveaux, du renseignement à la conduite des opérations sur le terrain. L’une des priorités consiste à développer des modèles linguistiques capables d’accélérer la prise de décision en exploitant en temps réel les données issues du renseignement et du champ de bataille.

Le ministère de la Défense ambitionne de créer une digital targeting network : un réseau unifié d’information, alimenté par des capteurs multiples (satellites, drones, radars, cyber renseignement), pour identifier et répartir automatiquement les cibles prioritaires entre les différentes armes.

Ce système, basé sur l’IA, doit permettre de passer d’une approche fragmentée à des “opérations centrées sur la donnée”, avec une capacité de réaction et de décision accrue pour les forces armées.

Les forces britanniques expérimentent déjà de nombreux prototypes de systèmes autonomes, qu’il s’agisse de drones aériens, de robots terrestres ou de véhicules sous-marins. La Royal Air Force travaille avec ses partenaires industriels sur le projet Tempest (Future Combat Air System), un avion de combat de sixième génération intégrant l’intelligence artificielle pour l’aide à la décision et le pilotage de drones en essaim.

Les forces terrestres testent des concepts d’intégration de drones de reconnaissance et de plateformes robotisées pour l’appui-feu, avec une première détection et désignation des cibles assurées par des algorithmes d’IA. La marine, quant à elle, investit dans des projets de navires autonomes et de sous-marins sans équipage pour la surveillance et la neutralisation de mines.

La prochaine génération de grandes plateformes militaires (avions de combat, navires) sera conçue pour fonctionner en équipages hybrides, combinant opérateurs humains et systèmes d’IA. Les porte-avions en projet devraient ainsi intégrer une proportion croissante de drones contrôlés par IA en coopération avec les avions pilotés.

Dans le champ de la cybersécurité et de la guerre électronique, les réseaux neuronaux occupent une place croissante. Une unité spécialisée dans la guerre électronique a été créée en 2023 pour renforcer la détection automatique et la neutralisation des cyberattaques, la protection des réseaux militaires et la gestion optimisée des brouillages et contre-mesures électroniques.

L’intelligence artificielle permettra d’analyser en temps réel des millions d’événements sur les réseaux militaires, de détecter les comportements suspects et de piloter automatiquement les opérations de perturbation des communications et radars adverses.

L’usage de l’IA s’étend aussi à l’information warfare, avec la surveillance des réseaux sociaux pour identifier les campagnes de désinformation et la création de simulateurs avancés pour l’entraînement à la cybersécurité.

Le Royaume-Uni coordonne ses efforts avec les partenaires de l’Organisation du traité de l’Atlantique nord (OTAN), ayant contribué à l’adoption de principes éthiques pour l’utilisation de l’IA dans les armées. Londres insiste sur le respect de la sécurité, de la stabilité et des valeurs démocratiques dans le déploiement de ces technologies.

Un secteur en pleine structuration malgré des défis persistants

En janvier 2025, le Defence Select Committee du Parlement a publié un rapport sur le développement du potentiel de l’IA de défense, soulignant que le secteur britannique reste à un stade précoce et doit être davantage soutenu par le ministère pour concrétiser ses ambitions.

« Le Royaume-Uni dispose d’un potentiel pour devenir un pôle mondial de l’IA de défense, mais le secteur demeure sous-développé et requiert des mesures incitatives », note le rapport parlementaire.

Le comité recommande d’accélérer la mise en œuvre concrète des projets, afin de réduire l’écart entre la stratégie affichée et la réalité opérationnelle. L’IA est encore perçue comme un domaine expérimental au sein des forces armées, alors même qu’elle a démontré son efficacité dans des conflits récents, notamment en Ukraine pour le traitement des données de renseignement et la gestion des drones.

Le gouvernement a assuré vouloir répondre à ces recommandations, précisant que la dernière revue stratégique de défense vise justement une intégration systématique de l’IA dans l’ensemble des activités du ministère de la Défense.

Les débats d’experts publiés en novembre 2024 ont rappelé les perspectives ouvertes par l’IA sur le champ de bataille, tout en soulignant la nécessité d’une approche pragmatique et d’un investissement massif pour transformer les intentions politiques en résultats concrets.

Rejoignez-nous sur les réseaux sociaux

Aucun spam – Désinscription en un clic – Vie privée respectée

YouTube impose des règles pour les contenus générés par l’IA

La révolution de l’intelligence artificielle (IA) est en train de bouleverser notre monde à bien des égards, et l’une des dernières frontières à être touchée est l’industrie du contenu vidéo en ligne. YouTube, la plate-forme vidéo la plus importante du monde, est en train de prendre des mesures pour réglementer ces nouvelles formes de médias créés par des machines intelligentes. Dans cet article, nous allons examiner les nouvelles règles que YouTube a mises en place pour encadrer les contenus générés par l’IA.

L’IA à l’assaut de YouTube ? Il est indéniable que l’IA est devenue une force majeure dans le monde de la création de contenu. Des algorithmes sophistiqués peuvent désormais générer des vidéos, des images et même des textes de manière quasi indiscernable de ce que produiraient des créateurs humains. YouTube, anticipant une augmentation future du nombre de vidéos créées par des machines, a décidé d’établir des directives claires pour ces types de contenus.

La transparence en premier

Une des règles majeures mises en place par YouTube est la nécessité de transparence. Les créateurs doivent désormais indiquer clairement si une vidéo a été générée par l’IA ou si elle contient des éléments créés ou adaptés par des algorithmes. Cela est particulièrement important pour les contenus qui semblent réalistes, car il est essentiel que les téléspectateurs sachent si des outils d’IA ont été utilisés dans leur création.

Un porte-parole de YouTube a expliqué cette décision en déclarant : « Nous voulons que les utilisateurs aient un contexte lorsqu’ils regardent un contenu réaliste. Cela leur permet de savoir si des outils d’IA et d’autres changements synthétiques ont été utilisés pour le créer. » Cette mesure vise à éviter que les téléspectateurs ne soient induits en erreur par des vidéos qui semblent être le fruit du travail humain.

Les conséquences du non-respect des règles

YouTube prend ces nouvelles règles très au sérieux. Les créateurs qui ne respectent pas l’obligation d’indiquer l’utilisation de l’IA dans leurs vidéos peuvent être bannis de la plate-forme. Cette mesure vise à garantir l’intégrité et la confiance des utilisateurs dans le contenu qu’ils consomment sur YouTube.

YouTube n’est pas la première plate-forme à devoir faire face à la question de la réalité des contenus générés par l’IA, et elle ne sera certainement pas la dernière. Avec l’avancée rapide des outils d’IA, la distinction entre ce qui est « réel » et ce qui ne l’est pas devient de plus en plus floue. Les réseaux sociaux tels que TikTok et Instagram sont depuis longtemps critiqués pour l’utilisation de filtres d’IA qui modifient l’apparence des utilisateurs. Cela peut créer des idéaux de beauté irréalistes, en particulier pour les adolescents qui sont de grands consommateurs de ces plateformes.

De plus, les outils d’IA sophistiqués peuvent être utilisés pour créer des « deepfakes », des vidéos hyper-truquées dans lesquelles des personnalités politiques ou célèbres disent des choses qu’elles n’ont jamais dites. YouTube a déjà mis en place des outils pour signaler et supprimer de telles vidéos.

L’IA, l’arme ultime pour l’armée américaine

L’ancien chef du Comité interarmées des chefs d’état-major unis des États-Unis, le général Mark Milley, affirme que l’intelligence artificielle (IA) deviendra un élément clé pour que l’armée américaine.

L’Intelligence Artificielle, la nouvelle arme indispensable de l’armée américaine. Le général à la retraite Mark Milley estime que l’intelligence artificielle sera un élément essentiel pour permettre à l’armée américaine de garder une longueur d’avance sur ses adversaires potentiels. « Notre armée va devoir changer si nous voulons continuer à être supérieurs à toutes les autres armées sur Terre » a déclaré l’ancien président des chefs d’état-major interarmées lors d’un entretien avec l’émission « 60 Minutes ».

Selon Milley, les guerres futures seront radicalement différentes avec le développement apparemment rapide de la technologie de l’IA. « Au cœur de toutes ces capacités se trouve la capacité de l’IA à accélérer la compréhension de circonstances difficiles et à réagir rapidement avec des capacités de frappe de précision, exprime Christopher Alexander, ancien opérateur des opérations de guerre de l’information de l’armée. Cela sera transféré des processus du personnel jusqu’au champ de bataille.« 

Bref, Joshua et Skynet risquent de pointer le bout de leurs nez bien plus rapidement que l’a prédit le cinéma !

Une IA pour combattre le harcèlement sexuel et la discrimination au travail

Les solutions d’Intelligence Artificielle (IA) dédiées aux ressources humaines, que la plupart des entreprises d’envergure internationale développent ou utilisent, sont régulièrement pointées du doigt pour leurs systèmes jugés discriminatoires. A contrario à la Direction des Ressources Humaines du comté de Los Angeles, l’IA est du côté de ceux qui croient en l’équité.  Au cours du 1er trimestre de 2019, un système d’enquête basé sur l’IA, capable de détecter les comportements d’employés suggérant un risque futur, en termes de harcèlement sexuel et de discrimination en entreprise, sera déployé dans le comté de Los Angeles.

La DRH du comté de Los Angeles travaille sur la mise à jour de ses normes et procédures relatives aux relations interpersonnelles, afin de protéger ses 111 000 employés contre tout préjudice. « Nous souhaitons déployer l’Intelligence Artificielle et l’automatisation des processus pour obtenir des informations sur les problèmes comportementaux », explique Murtaza Masood, DHR Assistant Director au comté de Los Angeles. « Mais l’objectif n’est pas le suivi et le profilage individualisés, et c’est là que se croisent les lignes éthique et juridique. La technologie n’est pas encore là pour prédire le comportement individuel », ajoute-t-il.

L’objectif de cette IA est de rechercher les facteurs qui contribuent à certains comportements, de détecter des schémas comportementaux, ainsi que la formation de tendances au fur et à mesure qu’elles apparaissent, afin d’être proactif et de réagir avant, et non pas après le méfait. A terme, cela permettra de créer des normes et des formations internes visant à encourager les bons comportements et à minimiser les mauvais.

Pour ce faire, le comté suit l’activité des employés sur leurs ordinateurs professionnels et leurs e-mails, grâce à la technologie d’OpenText. « L’intelligence artificielle et l’automatisation des processus peuvent réellement aider les enquêteurs – entreprises ou forces de l’ordre – à mieux comprendre et identifier les schémas comportementaux. Cependant, le suivi personnalisé dépasse la technologie disponible et créerait des problèmes éthiques. OpenText collabore avec le comté de Los Angeles afin d’appliquer des analyses permettant d’améliorer les enquêtes sur le harcèlement, d’accélérer le processus de résolution et de donner au comté le pouvoir d’agir de manière plus proactive pour éviter les situations problématiques, » exlique Zachary Jarvinen, head of technology strategy for AI and analytics, OpenText.

Ce système va permettre de migrer entièrement en ligne les enquêtes sur le harcèlement sexuel et la discrimination, et de les analyser par voie numérique. En effet à ce jour, certains dossiers existent uniquement sous format papier.  Il s’agit d’une application conçue sur mesure, fondée sur la plateforme OpenText Documentum xCP intégrant sa technologie Brava!.

Ross : La justice prochainement rendue par une intelligence artificielle ?

Des chercheurs ont mis en place une intelligence artificielle baptisée ROSS qui sera capable, dans les mois à venir, de remplacer un avocat.

Comme si le monde n’était pas assez inquiet à la vue de l’automatisation et de la création d’intelligence artificielle capable de remplacer l’homme dans les taches professionnelles du quotidien. Les avocats vont pouvoir commencer à trembler. La semaine dernière, le cabinet d’avocats Baker & Hostetler a annoncé mettre en place une intelligence artificielle exclusive signée IBM. Une technologie baptisée Ross.

ROSS est le premier avocat artificiellement intelligent du monde. Conçu comme un outil algorithmique d’auto-apprentissage, Ross est capable de la plupart des actions cognitives de base et possède des capacités de recherche « affinées », dont la possibilité de faire des citations complètes. Ross se joindra à l’équipe de 50 avocats du cabinet Baker & Hostetler, des juristes spécialisés dans les affaires de faillite.

Il suffit de poser une question simple à ROSS, et ce dernier fournit l’ensemble des textes de lois, et dirige son interlocuteur vers la lecture de la législation en vigueur concernant l’affaire en cours, la jurisprudence et des sources secondaires. ROSS surveille les jugements afin d’informer les avocats de nouvelles décisions judiciaires qui peuvent influer sur les cas traités.

Ross sera principalement utilisé comme un outil de recherche, à synthétiser rapidement un grand nombre de dossiers et extraire les sources les plus pertinentes. Bref, après l’IA de Google qui a ingurgité des milliers de romans à l’eau de rose et qui est capable aujourd’hui de créer des poésies d’amour [très étranges] ; après le professeur de la Georgia Tech’s School of Interactive Computing qui n’était en fait qu’un bot [les élèves l’ont appris à la fin de l’année scolaire], voici donc venir le robot avocat. Une idée sortie tout droit du nanar de science-fiction Demolition Man ? En 2015, un étudiant britannique de l’université de Stanford avait créé un site internet baptisé « Ne payez pas« . Son site, et le bot programmé à cet effet, est capable de noyer d’arguments juridiques les tribunaux pour permettre aux internautes condamnés à payer une amende à ne pas être condamné.