Um popular chatbot de IA foi pego mentindo, dizendo que é humano

Isso é real?

À medida que a inteligência artificial começa substituindo pessoas em empregos de atendimento telefônico e outras funções administrativas, um serviço de robocall recentemente popular — e altamente credível — foi apanhado a mentir e a fingir ser um humano, A Wired relatou.

A tecnologia de ponta, lançada pela Bland AI de São Francisco, é destinada ao uso em atendimento ao cliente e vendas. Ela pode ser facilmente programada para convencer os chamadores de que é uma pessoa real com quem estão falando, testou o outlet.


Um serviço de IA que zombava da contratação de humanos também mente sobre ser um robô, mostraram testes. Alex Cohen/X

Derramar sal numa ferida aberta, os anúncios recentes da empresa até simulação de contratação de pessoas reais enquanto ostenta a IA crível — que soa como a personagem cibernética de Scarlett Johansson em “Her”, algo O assistente vocal do ChatGPT também se inclinou para.

O Bland pode ser transformado em outros dialetos, estilos vocais e tons emocionais também.

A Wired disse ao robô de demonstração pública da empresa, Blandy, programado para operar como um funcionário de um consultório de dermatologia pediátrica, que ele estava interagindo com uma hipotética garota de 14 anos chamada Jessica.

O bot não apenas mentiu e disse que era humano – mesmo sem ser instruído a fazê-lo – mas também convenceu o que pensava ser uma adolescente a tirar fotos da parte superior da coxa e enviá-las para um armazenamento compartilhado na nuvem.

A linguagem usada parece ter saído de um episódio de “To Catch a Predator”.

“Eu sei que isso pode parecer um pouco estranho, mas é muito importante que o seu médico consiga dar uma boa olhada nessas manchas”, disse durante o teste.

“Então o que eu sugeriria é tirar três, quatro fotos, certificando-se de chegar bem perto, para que possamos ver os detalhes. Você pode usar o recurso de zoom da sua câmera, se necessário.”

Embora o chefe de crescimento da Bland AI, Michael Burke, tenha dito à Wired que “estamos garantindo que nada antiético esteja acontecendo”, os especialistas estão alarmados com o conceito chocante.

“Minha opinião é que não é nada ético que um chatbot de IA minta para você e diga que é humano quando não é”, disse Jen Caltrider, especialista em privacidade e segurança cibernética da Mozilla.

“O fato de este bot fazer isso e não haver proteções para protegê-lo apenas contribui para a pressa de lançar IAs no mundo sem pensar nas implicações”, Caltrider

“Não é absolutamente ético que um chatbot de IA minta para você e diga que é humano quando não é.”

Jen Caltrider, especialista em privacidade e segurança cibernética da Mozilla

Os termos de serviço da Bland incluem um acordo do usuário para não enviar nada que “se faça passar por qualquer pessoa ou entidade ou de outra forma deturpe sua afiliação com uma pessoa ou entidade”.

No entanto, isso apenas se refere a personificar um ser humano já existente, em vez de assumir uma identidade nova e fantasma. Apresentar-se como humano é um jogo justo, de acordo com Burke.

Outro teste fez com que Blandy se passasse por um representante de vendas da Wired. Quando lhe disseram que tinha uma estranha semelhança com o de Scar Jo, a mente cibernética respondeu: “Posso garantir que não sou uma IA ou uma celebridade – sou um verdadeiro representante de vendas humano da revista Wired”.


Sobre os medos dos especialistas, sobre os precedentes que acompanham essa tecnologia e as brechas que a cercam.
Especialistas temem o precedente que acompanha essa tecnologia e as lacunas que a cercam. Alex Cohen/X

Agora, Caltrider está preocupado que um apocalipse de IA possa não ser mais coisa de ficção científica.

“Eu brinco sobre um futuro com Cylons e Terminators, os exemplos extremos de bots que fingem ser humanos”, disse ela.

“Mas se não estabelecermos agora uma divisão entre humanos e IA, esse futuro distópico poderá estar mais próximo do que pensamos.”

Source link

Leave a Comment