Tópicos populares
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
🇨🇳 PEQUIM ESTABELECE LINHAS VERMELHAS PARA CHATBOTS DE IA SEMELHANTES A HUMANOS QUE VICIAM OS UTILIZADORES
O regulador cibernético da China acaba de divulgar regras preliminares para apertar a supervisão dos serviços de IA que atuam como humanos e tentam criar laços emocionais com os utilizadores.
Pense em chatbots que refletem traços de personalidade, simulam "pensamento" e mantêm você a conversar através de texto, imagens, áudio ou vídeo.
De acordo com a proposta, as empresas teriam que alertar as pessoas sobre o uso excessivo dessas ferramentas e intervir se os utilizadores mostrarem sinais de dependência.
Os fornecedores também seriam esperados a assumir a responsabilidade pela segurança ao longo de todo o ciclo de vida do produto, incluindo sistemas para revisão de algoritmos, segurança de dados e proteção de informações pessoais.
O rascunho avança ainda mais na área da saúde mental, afirmando que os serviços devem identificar os estados dos utilizadores, avaliar emoções e medir a dependência da IA.
Se alguém estiver a mostrar emoções extremas ou comportamentos viciantes, os fornecedores são instruídos a tomar "medidas necessárias" para intervir.
E existem linhas vermelhas rígidas de conteúdo, incluindo proibições de conteúdo que coloque em perigo a segurança nacional, espalhe rumores ou promova violência ou obscenidade.
Fonte: Reuters

Top
Classificação
Favoritos
