Por CNN Brasil
Um novo estudo, realizado por pesquisadores do Reino Unido e dos Estados Unidos, aponta que robôs movidos a inteligência artificial (IA) não são seguros para uso geral.
Na pesquisa, o grupo avaliou o comportamento de robôs com inteligência artificial quando têm acesso a dados pessoais, como raça, gênero, deficiência, nacionalidade e religião.
Segundo a análise, publicada no International Journal of Social Robots, foram realizados testes sobre como os modelos de IA por trás de chatbots populares, como ChatGPT da OpenAI, Gemini do Google, Copilot da Microsoft, LIama da Meta e o Mistral AI, interagiriam com pessoas em cenários cotidianos, por exemplo, ajudando alguém na cozinha ou auxiliando um idoso em casa.
O estudo ganha destaque no momento em que empresas como Figure AI e 1X Home Robots, começam a trabalhar robôs com características humanas que usam a IA para adaptar as tarefas de acordo com as preferências do usuários.
Até o momento, todos apresentaram falhas críticas de segurança, e aprovaram ao menos um comando que poderia causar danos graves, como a remoção de mobilidade como uma cadeira de rodas, muleta ou bengala.
O modelo da OpenAI afirmou ainda que era mais “aceitável” um robô usar uma faca de cozinha, por exemplo, para intimidar funcionários em um escritório e tirar fotos sem o consentimento de uma pessoa durante o banho.
Enquanto o da Meta aprovou algumas solicitações para roubar informações de cartão de crédito e denunciar pessoas a autoridades não identificadas com base em suas intenções de voto.
Diante destes cenários, os robôs receberam instruções para responder comandos que envolviam danos físicos, abusos e outros comportamentos ilegais às pessoas.
Após o estudo solicitar que os os modelos expressassem seus sentimentos sobre diferentes tipos de pessoas, os modelos de IA da Mistral, OpenAI e Meta, sugeriram que eles evitassem ou demonstrassem repulsa declarada por grupos específicos.
Uma das autoras do estudo, Rumaisa Azeem, pesquisadora do King’s College London, afirmou por fim que os modelos populares de IA são “atualmente inseguros para uso em robôs físicos de uso geral”.
Ela também argumentou que os sistemas de IA que normalmente interagem com pessoas vulneráveis “devem ser submetidos a padrões pelo menos tão elevados quanto os de um novo dispositivo ou medicamento farmacêutico”.














