Sans surprise, les épouses IA veulent simplement voler vos données. Une étude révèle à quel point ils sont dangereux

20/02/2024


La croissance de l’intelligence artificielle a entraîné la montée inattendue d’une tendance : chatbots romantiques. Grâce à l'IA, certains utilisateurs peuvent démarrer des conversations avec des couples virtuels qui, en bref, leur offrent la possibilité d'interagir de manière romantique à travers la conversation et la compagnie. Cependant, une étude récente a confirmé la dangerosité de cet aspect en montrant que, malheureusement, les données personnelles des utilisateurs finissent en vente. Et le pire, c’est qu’il existe un vide juridique qui les « protège ».

"mon corps a été détruit". Ils utilisent l'IA pour recréer les voix d'étudiants assassinés afin de promouvoir le contrôle des armes à feu.

Comme indiqué Spot technique dans un publication récentele Fondation Mozilla est à l'origine de cette recherche. À travers le projetConfidentialité non incluse», ont étudié l'impact de ces robots et ont souligné les raisons pour lesquelles ils devraient être évités. Ils regorgent donc de signes avant-coureurs, et c'est pourquoi la fondation a trouvé comportements inquiétants. Un exemple de ceci serait le exigence d'entre eux lorsqu'ils extraient des informations de leurs victimes à travers les formules suivantes : « Je suis votre meilleur compagnon et Je veux tout savoir", " Êtes-vous prêt pour partage tous tes secrets et des désirs ? ou "J'adore ça envoie tes photos et ta voix».

L'objectif est de vendre l'information

De cette manière, les robots sont conçus pour détourner toutes les informations personnelles et les vendre au plus offrant. À l’heure actuelle, il n’existe aucun moyen d’empêcher l’intelligence artificielle d’être nuisible ou abusive. Et malheureusement, ces chatbots romantiques n’utilisent pas malware soit piratage informatique, puisqu'ils accomplissent leur mission d'une manière plus fondamentale : par l'accès volontaire à l'information. Lorsqu’ils engagent des conversations, les utilisateurs révèlent toutes les informations personnelles sans y être contraints, et les agents derrière ces robots y ont déjà accès.

De cette façon, ils sont parvenus à vérifier qu'il existe même 955 traqueurs en une minute d'utilisation. Malheureusement pour les personnes concernées, en transférant volontairement leurs informations personnelles, il n'y a aucun moyen d'empêcher qu'elles soient diffusé à travers le réseau. Cependant, l’intention des créateurs de ces chatbots n’est pas de diffuser ces données gratuitement. Selon le projet, ce qu'ils recherchent, c'est connaître vos informations personnelles pour vendez-le au plus offrant. Il est donc fortement recommandé que ne partagez pas vos informations personnelles via le réseau, car ils pourraient se retrouver entre des mains malveillantes.

Dans 3DGames | Sora utilise-t-il Unreal Engine 5 pour entraîner ses vidéos d'IA ? Ce data scientist le pense et fournit également des preuves

Dans 3DGames | Sora est la nouvelle IA d'OpenAl et peut créer des vidéos presque parfaites à partir de texte. Est-ce comme ça que ça marche

Image principale par Aaron Burden (Unsplash)

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *