L'intelligence artificielle génère de mauvais jumeaux numériques, une autre menace pour notre sécurité sur le Web?
L'intelligence artificielle toujours sous les projecteurs après l'alerte de Trend Micro, une société de sécurité informatique, selon laquelle l'IA pourrait générer les « mauvais jumeaux », ou « nos copies informatiques » capables d'augmenter les escroqueries, qui deviendront plus et plus difficile à trouver
Notre « pourrait venir »Mauvais jumeaux numériques« , C'est nos » copies informatiques « générées parIntelligence artificielle capable d'augmenter les escroqueries, qui deviendront de plus en plus difficiles à trouver. L'alarme vient de Micro tendancesociété de sécurité informatique.
Étant donné que l'intelligence artificielle générative devient de plus en plus route dans les entreprises et les entreprises nécessaires, nous devons faire attention aux menaces – explique Jon Clay, vice-président de la menace intelligente chez Trend Micro – Attaques d'hyper-personne Ils auront besoin d'efforts sectoriels pour déraciner et leur faire face. Les chefs d'entreprise doivent se rappeler qu'aujourd'hui. Tout risque de sécurité est finalement un risque d'entreprise, avec le potentiel d'avoir un Impact profond sur la stratégie future
Il y a quelques jours à peine le Garant de confidentialité a bloqué pour les utilisateurs italiens Profondeurlogiciel de intelligence artificielle relationnelle développé par deux entreprises chinoises, Hangzhou Deepseek Intelligence artificielle Et Intelligence artificielle profonde de Pékinpour protéger les données sensibles Compte tenu du degré de sécurité sur la question, jugé insuffisant.
Lire aussi: Intelligence artificielle: parce que le garant de confidentialité a bloqué Deepseek pour les utilisateurs italiens
Maintenant, selon l'entreprise, la menace est beaucoup plus grave, car elle est intentionnelle: les « mauvais jumeaux numériques », qui violent ou divulguent des informations personnelles, puis utilisent ces données pour former un Modèle de grande langue (LLM), ou une technologie IA avancée axée sur la compréhension et l'analyse du texte, afin de imitez les connaissances, la personnalité et le style d'écriture d'une victime.
Ceux-ci, s'ils sont utilisés en combinaison avec des fesseurs vidéo / audio et des données biométriques compromises, pourraient être utilisées pour Effectuer la fraude d'identité Ou pour «piéger» un ami, un collègue ou un membre de la famille.
Femelle profonde et ia pourrait donc être exploité dans Attaques hyperpersonnelles à l'échelle de perruque Pour améliorer l'entreprise, compromettre les escroqueries (BEC / BPC) et les faux employés, attire et victimes de justice avant de les livrer à un opérateur humain, qui peut discuter d'un filtre de personnalité d'un LLM, mais également de collecter des informations open source d'une manière plus efficace.
Le développement de capacités dans la préparation avant les attaques améliorera le succès de l'attaque – Expliquez l'entreprise – Créez des personnages de médias sociaux apparemment authentiques à grande échelle pour diffuser des informations / désinformations et escroqueries incorrectes
En réponse à ces menaces croissantes, Micro tendance Recommandation de mettre en œuvre une approche basée sur le risque de sécurité informatiquepermettant l'identification centralisée de différents actifs et une évaluation / priorité / atténuation efficace du risque.
UN image inquiétante comme prévu -Comments à l'ANSA, Pierluigi Paganini, PDG de Cyberhorus et professeur de cybersécurité à l'Université de Luis Guido Carli dans le crimal sous-sol, ils dépeuplent déjà des plates-formes capables de créer du pHishing Deepfake et un e-mail capable de tromper la plupart des utilisateurs en ligne. L'intégration de cette nouvelle technologie est également inquiète dans les entreprises
L'intelligence artificielle est un progrès, mais la nouvelle perspective montre, encore une fois, à quel point Équilibre l'innovation et la protection des données.
L'IA remplacera l'être humain dans de nombreux processus et surveillera son travail pourrait être tout sauf simple en introduisant de nouveaux risques de sécurité – continue Paganini – trop d'entreprises et d'organisations sont aujourd'hui non préparé à faire face à ces menaces émergentes: Il est essentiel d'adopter des stratégies de défense plus avancées, telles que l'approche basée sur le risque, le renforcement de la sécurité de la LLM et la formation continue des utilisateurs
Et, paradoxalement, précisément la même intelligence artificielle, qui a déjà montré qu'elle peut être d'une grande aide dans plusieurs situations, pourrait être d'une grande aide.
Lire aussi: l'intelligence artificielle peut-elle vraiment lutter contre la désinformation?
En cela, l'IA pourrait nous donner une grosse main, beaucoup sont les siennes Applications à des fins de défense
Sources: tendance micro / ANSA
Lisez également:
