dimanche 22 septembre 2024

L'IA au Service des Escrocs ?

Un nouveau chatbot IA "pensant " capable de terroriser les humains et de voler l’argent d’un "grand nombre" de personnes ! 


Écartez-vous, princes nigérians, car une nouvelle escroquerie au vol d’argent est en train de déferler sur le monde : des chatbots d’intelligence artificielle (IA) capables de "raisonner" et de "penser" à une infinité de façons d’escroquer les gens de leur argent.
OpenAI a récemment présenté son nouveau modèle o1 ChatGPT qui, selon l’entreprise, est beaucoup plus "intelligent" que les chatbots d’IA existants. 
Le modèle o1 a la capacité de "passer plus de temps à réfléchir avant de répondre", a révélé l’entreprise.
"Il est capable de raisonner sur des tâches complexes et de résoudre des problèmes plus difficiles que les modèles précédents dans les domaines de la science, du codage et des mathématiques."  
Le modèle o1 de ChatGPT d’OpenAI est la première avancée majeure du système depuis son lancement fin 2022. Actuellement, il n’est disponible que pour les membres payants de ChatGPT. 
Selon Andrew Bolster, expert en cybersécurité, le modèle d’IA o1 ChatGPT est un rêve devenu réalité pour les cybercriminels, qui ne manqueront pas d’imaginer toutes sortes d’escroqueries que même les internautes les plus avisés seront incapables de détecter avant qu’elles ne les dépouillent de leur argent durement gagné. 
"Les grands modèles de langage (LLM) ne cessent de s’améliorer au fil du temps, et la sortie du modèle "o1" d’OpenAI ne fait pas exception à cette tendance", explique M. Bolster.
Cette génération de LLM excelle dans la manière dont ils donnent l’impression de "raisonner". 
Des étapes intermédiaires sont réalisées par l’ensemble du système conversationnel pour faire émerger des décisions et des réponses plus créatives ou plus "intelligentes".

L’IA au service de l’économie Américaine de l’Arnaque ? 
Une grande partie de ce qui fait tourner l’économie américaine de nos jours est la criminalité. 
Presque tout est devenu une sorte de chaîne de Ponzi, qu’il s’agisse des affaires, des marchés en général, de la religion, des soins de santé et, bien sûr, de la politique. 
Et tandis que le grand public s’en rend compte, les pouvoirs en place tentent désespérément de mettre au point de nouveaux stratagèmes pour dépouiller les gens de leurs biens. 
L’IA rend cela possible en permettant aux pires salopards de la planète de créer de fausses vidéos, par exemple, qui semblent montrer de vraies personnes en train de parler, mais qui ne sont que des créations de l’IA. 
Les vidéos "deepfake" peuvent être utilisées pour tromper les gens et les amener à faire ou à croire à peu près n’importe quoi, ce qui est excellent pour les affaires. 
Selon certaines sources, un Britannique sur trois aurait déjà été victime d’une escroquerie à l’aide de deepfakes d’IA. 
Et le problème ne fait que s’aggraver au fur et à mesure que l’IA progresse vers un niveau de tromperie supérieur. 
"Dans le contexte de la cybersécurité, cela rendrait naturellement toute conversation avec ces "machines raisonnantes" plus difficile à différencier des humains pour les utilisateurs finaux", explique le Dr Bolster.

Les escrocs ou autres cybercriminels qui utilisent ces outils pour atteindre un grand nombre de "marques" vulnérables pourraient ainsi s’en servir. 
Nvidia, qui produit les puces et autres matériels dont les développeurs d’IA ont besoin pour créer ces abominations d’escroquerie, est justement l'action qui soutient les marchés américains en ce moment
Sans elle, et sans l’IA, l’économie américaine ne serait probablement déjà plus qu’un amas de ruines et de destruction cataclysmique. 
M. Bolster recommande aux consommateurs de se méfier de tout ce qui semble "trop beau pour être vrai", car il s’agit très probablement d’une escroquerie qui, de nos jours, implique également l’IA. 
Le grand public "devrait toujours consulter des amis et des membres de sa famille pour obtenir un deuxième avis", prévient-il, "en particulier lorsque quelqu’un (ou quelque chose) au bout d’une fenêtre de discussion ou même d’un appel téléphonique essaie de faire pression sur vous pour que vous acceptiez quelque chose'.

Ethan Huff

Source
https://www.etresouverain.com/un-nouveau-chatbot-ia-pensant-capable-de-terroriser-les-humains-et-de-voler-largent-dun-grand-nombre-de-personnes/