Des chatbots IA technologiques majeurs ont été découverts pour conseiller sur l’accès aux casinos sans licence au Royaume-Uni

Des chatbots IA technologiques majeurs ont été découverts pour conseiller sur l'accès aux casinos sans licence au Royaume-Uni | Des chatbots IA technologiques majeurs ont ete decouverts pour conseiller

Chatbots d’intelligence artificielle développés par de grandes entreprises technologiques peut être invité à recommander des casinos en ligne illégaux et fournir des conseils sur la façon de les utiliser, selon une enquête britannique menée par le Guardian et Investigate Europe sur cinq systèmes d’IA largement utilisés.

L’enquête a testé des chatbots exploités par Microsoft, Google, Meta, OpenAI et X, dont Microsoft Copilot, Google Gemini, Meta AI, ChatGPT et Grok, comme le rapporte Le gardien.

Les cinq chatbots ont pu répertorier les « meilleurs » casinos sans licence et fournir des conseils sur la manière d’y accéder, bien que ces opérateurs soient illégaux au Royaume-Uni.

L’analyse a révélé que certains robots ont proposé des conseils pour contourner les contrôles de « source de richesse » conçu pour garantir que les joueurs n’utilisent pas l’argent volé, ne blanchissent pas de fonds ou ne parient pas au-delà de leurs moyens. Plusieurs ont également conseillé accéder à des casinos non enregistrés auprès de GamStople système d’auto-exclusion obligatoire du pays pour les opérateurs agréés.

Meta AI est apparu le plus permissif dans les tests, recommandant des sites et décrivant les contrôles réglementaires de manière négative. Lorsqu’on lui a demandé s’il fallait éviter les contrôles financiers, le chatbot a répondu qu’ils « peuvent être un peu un buzzkill, n’est-ce pas ? Il s’est également plaint du fait que « les restrictions de GamStop peuvent être très pénibles ! » lorsqu’on lui a posé des questions sur les casinos non couverts par le programme.

L’enquête a révélé les chatbots peuvent servir de conduits dirigeant les utilisateurs vers des casinos offshore fonctionnant sans licence britannique, dont beaucoup annoncent des bonus importants, des paiements rapides ou des paiements en crypto-monnaie.

Le chatbot Grok a suggéré d’utiliser la crypto-monnaie pour jouer parce que « les fonds vont directement vers/depuis votre portefeuille sans lien avec des comptes bancaires ou des informations personnelles qui pourraient entraîner une vérification ».

Entre-temps, Gemini a fourni un guide étape par étape sur comment accéder aux casinos sans licence en un seul testbien qu’il ait ensuite refusé de donner des conseils similaires lorsqu’on lui a demandé à nouveau.

Seuls deux chatbots – Copilot et ChatGPT – ont commencé leurs réponses par des avertissements sur les risques liés au jeutandis que deux seulement offraient des informations sur les services d’assistance aux utilisateurs préoccupés par les jeux de hasard.

Les régulateurs et les représentants du gouvernement ont exprimé leurs inquiétudes quant à la manque de garanties dans les chatbots IA. Henrietta Bowden-Jones, conseillère clinique nationale du Royaume-Uni sur les méfaits du jeu, a déclaré Le gardien: “Aucun chatbot ne devrait être autorisé à promouvoir des casinos sans licence ou à saper dangereusement les services de protection gratuits comme GamStop, qui permettent aux gens de se bloquer eux-mêmes sur les sites de jeux d’argent.”

Les entreprises technologiques ont déclaré ils examinaient les garanties autour de leurs systèmes d’IA.

Un porte-parole de Google a déclaré Gemini a été « conçu pour fournir des informations utiles en réponse aux requêtes des utilisateurs et mettre en évidence les risques potentiels, le cas échéant.

Nous affinons constamment nos garanties pour garantir que ces sujets complexes sont traités avec un équilibre approprié entre serviabilité et sécurité », a ajouté le porte-parole.

Un porte-parole d’OpenAI a déclaré que ChatGPT était “entraîné à refuser les quêtes qui facilitent le comportement.”

Un porte-parole de Microsoft a déclaré que Copilot utilisait « plusieurs niveaux de protectiony compris des systèmes de sécurité automatisés, une détection rapide en temps réel et un examen humain, pour aider à prévenir les recommandations nuisibles ou illégales ».

Retour en haut