🇨🇳 BEIJING DRAWS RED LINES FOR HUMAN-LIKE AI CHATBOTS THAT GET USERS HOOKED La régulation cybernétique de la Chine vient de publier des règles préliminaires pour renforcer la surveillance des services d'IA qui agissent comme des humains et tentent de créer un lien émotionnel avec les utilisateurs. Pensez à des chatbots qui reflètent des traits de personnalité, simulent la "pensée" et vous incitent à discuter par le biais de texte, d'images, d'audio ou de vidéo. Selon la proposition, les entreprises devraient avertir les gens contre l'utilisation excessive de ces outils et intervenir si les utilisateurs montrent des signes d'addiction. Les fournisseurs seraient également tenus de prendre la responsabilité de la sécurité tout au long du cycle de vie du produit, y compris des systèmes pour l'examen des algorithmes, la sécurité des données et la protection des informations personnelles. Le projet va également plus loin dans le domaine de la santé mentale, en disant que les services devraient identifier les états des utilisateurs, évaluer les émotions et mesurer la dépendance à l'IA. Si quelqu'un montre des émotions extrêmes ou un comportement addictif, les fournisseurs sont invités à prendre des "mesures nécessaires" pour intervenir. Et il y a des lignes rouges strictes concernant le contenu, y compris des interdictions sur le contenu qui met en danger la sécurité nationale, propage des rumeurs ou promeut la violence ou l'obscénité. Source : Reuters