Deepfake : un employé se fait arnaquer à cause de l'IA et perd cette somme folle

5 février 2024 à 15h01 dans Insolite

L'intelligence artificielle est un nouvel outil aux multiples possibilités pour les criminels. Entre de mauvaises mains, cette invention dont nous vous parlons régulièrement sur Hitek peut s'avérer extrêmement dangereuse. C'est ce dont l'employé d'une multinationale à Hongkong a fait l'expérience, se faisant arnaquer d'une somme colossale lors d'une visioconférence version deepfake...

Deepfake : un employé se fait arnaquer à cause de l

cette arnaque bien ficelée et indétectable a coûter 25 millions de dollars à cette entreprise

Si l'intelligence artificielle peut mener à de véritables prouesses, comme celle d'Elon Musk avec Neuralink, elle peut aussi être utilisée à des fins criminelles. À Hongkong, un employé d'une multinationale à fait les frais de cette redoutable technologie : alors qu'il pensait obéir à un ordre de son directeur financier, il s'est fait arnaquer par de fausses personnes lors d'une visioconférence version deepfake. D'après nos confrères de BFM TV, tout a commence lorsqu'il a reçu par e-mail une invitation de son directeur, basé au Royaume-Uni. Au début, il considère qu'il s'agit d'un e-mail illégal (à juste raison), avant de perdre sa méfiance en rejoignant la réunion, où il découvre les visages de ses collègues. En effet, pendant plusieurs mois, les escrocs ont piraté des vidéos de salariés, afin d'en créer des fausses versions avec l'IA.

deepfake

Au cour de la visioconférence, ils ont demandé à l'employé d'effectuer une quinzaine de transactions sur cinq comptes bancaires différents, pour un montant total de 200 millions de dollars de Hongkong (soit 25 millions de dollars américains). D'après les déclarations du surintendant principal de l'entreprise à RTHK, la chaîne publique de Hongkong, "les personnes semblaient plus vraies que nature". C'est en appelant ses collègues après cette réunion que l'employé a compris qu'il avait été arnaqué. Si l'utilisation innocente de l'intelligence artificielle pour s'amuser avec la pop culture, comme ici avec ces Minions imaginés en personnages du MCU, n'est pas problématique, on imagine néanmoins que des personnes malintentionnées vont de plus en plus utiliser l'IA de manière criminelle...

Hello, c’est Mélanie. J’écris des articles chez Hitek depuis août 2022. Diplômée d’un Master en Cinéma (dont il me reste un mémoire sur Pirates des Caraïbes), je suis passionnée de films et de comics (les X-Men des 90’s, Jim Starlin, Crisis on Infinite Earths).

Articles de Mélanie
count
Commentaires (6)
c'est complètement hors de contrôle et terrifiant
photo de profil de Berlioz Par Berlioz, il y a 10 mois Répondre
Titre trompeur de ouf
C'est pas l'ia qui a arnaqué quelqu'un
Ce sont des gens qui se sont servis de l'IA
Putaclic s'il-te-plaît
photo de profil de Trololo Par Trololo, il y a 10 mois Répondre
Il a appelé ses collègues après ?
Donc il était conscient qu'un truc était louche
Donc il aurait pu appeler avant, y'a un problème dans cette histoire

Par pitié mettez vos putains de source pour qu'on puisse au moins suivre le truc, vos traductions sont toujours foireuses, avec un peu de chances il y a peut-être même plus d'informations sur l'article d'origine
photo de profil de Lulzlesnoob Par Lulzlesnoob, il y a 10 mois Répondre
Tu connais Google ?

"Arnaque", "deepfake", "bfm"...
photo de profil de zoxotoboxo Par zoxotoboxo, il y a 10 mois (en réponse à Lulzlesnoob) Répondre
Non. C'est la base de citer ses sources quand on rédige un article. Oui c'est préférable de confirmer en faisant ces propres recherches, mais citer ses sources C'EST LA BASE.
photo de profil de jepassaisparlà Par jepassaisparlà, il y a 10 mois (en réponse à zoxotoboxo) Répondre
Tu connais bien, c'est ta source inépuisable pour alimenter ton racisme profond, mais tu va pas assumer en tant que propagandiste haineux et l'idéologie puante que tu admire de l'extrême droite.
photo de profil de Elstar Par Elstar, il y a 10 mois (en réponse à zoxotoboxo) Répondre
Laisser un commentaire

Vous répondez à . Annuler