Robôs logo poderão escrever notícias 'falsas' realistas, dizem pesquisadores


Grupo de estudos Open AI, apoiado pelo fundador do LinkedIn, busca entender como inteligência artificial pode avançar; estudiosos levantarem preocupação com efeitos de uso de ferramenta

Por Agências
Os pesquisadores querem que seus colegas cientistas comecem a discutir os possíveis efeitos negativos da tecnologia antes de publicarem abertamente todos os avanços Foto: Creative Commons

Um grupo de pesquisa apoiado por pesos pesados do Vale do Silício divulgou na quinta-feira, 14, um documento mostrando que a tecnologia capaz de gerar notícias realistas a partir de pouco mais do que uma sugestão de título está pronta para evoluir rapidamente nos próximos anos.

O OpenAI, grupo apoiado pelo fundador do LinkedIn, Reid Hoffman, foi criado para pesquisar como tornar as cada vez mais poderosas ferramentas de inteligência artificial mais seguras. O grupo descobriu, entre outras coisas, que os computadores, já usados para escrever breves notícias automáticas baseadas em releases de imprensa, podem ser treinados para ler e escrever blocos de texto longos, de maneira mais fácil do que se pensava anteriormente.

continua após a publicidade

Uma das coisas que o grupo mostrou no artigo é que seu modelo é capaz de “escrever notícias sobre cientistas descobrindo unicórnios falantes”.

Os pesquisadores querem que seus colegas cientistas comecem a discutir os possíveis efeitos negativos da tecnologia antes de publicarem abertamente todos os avanços, da mesma forma como físicos e geneticistas nucleares consideram de que forma seu trabalho poderia ser mal utilizado antes de torná-lo público.

“Parece que há um cenário provável em que haveria progresso constante”, disse Alec Radford, um dos co-autores do artigo. “Devemos estar tendo a discussão em torno de se isso continuar a melhorar, quais são as coisas que devemos considerar?”

continua após a publicidade

Os chamados modelos de linguagem que permitem que os computadores leiam e escrevam normalmente são “treinados” para tarefas específicas, como traduzir idiomas, responder a perguntas ou resumir textos. Esse treinamento geralmente vem com uma cara supervisão humana e conjuntos de dados especiais.

O artigo do OpenAI descobriu que um modelo de linguagem geral, capaz de muitas dessas tarefas especializadas, pode ser treinado sem muita intervenção humana e alimentar-se com textos disponíveis na internet. Isso removeria duas grandes barreiras a seu desenvolvimento.

O modelo permanece a alguns anos de trabalhar de forma confiável e requer uma computação em nuvem cara para ser construída. Mas esse custo pode cair rapidamente.

continua após a publicidade

“Estamos a alguns anos de isso ser algo que um entusiasta pode fazer em casa de maneira fácil”, disse Sam Bowman, professor assistente da Universidade de Nova York, que não esteve envolvido na pesquisa, mas fez uma revisão. “Já é algo que um amador bem financiado com um diploma avançado poderia fazer, com muito trabalho.”

Em um movimento que pode desencadear controvérsias, a OpenAI está descrevendo seu trabalho no artigo, mas não divulgou o modelo por preocupação de que poderia ser mal utilizado.

“Ainda não estamos em um estágio em que estamos dizendo que isso é um perigo”, disse Dario Amodei, diretor de pesquisa da OpenAI. “Estamos tentando conscientizar as pessoas sobre esses problemas e iniciar uma conversa.”

Os pesquisadores querem que seus colegas cientistas comecem a discutir os possíveis efeitos negativos da tecnologia antes de publicarem abertamente todos os avanços Foto: Creative Commons

Um grupo de pesquisa apoiado por pesos pesados do Vale do Silício divulgou na quinta-feira, 14, um documento mostrando que a tecnologia capaz de gerar notícias realistas a partir de pouco mais do que uma sugestão de título está pronta para evoluir rapidamente nos próximos anos.

O OpenAI, grupo apoiado pelo fundador do LinkedIn, Reid Hoffman, foi criado para pesquisar como tornar as cada vez mais poderosas ferramentas de inteligência artificial mais seguras. O grupo descobriu, entre outras coisas, que os computadores, já usados para escrever breves notícias automáticas baseadas em releases de imprensa, podem ser treinados para ler e escrever blocos de texto longos, de maneira mais fácil do que se pensava anteriormente.

Uma das coisas que o grupo mostrou no artigo é que seu modelo é capaz de “escrever notícias sobre cientistas descobrindo unicórnios falantes”.

Os pesquisadores querem que seus colegas cientistas comecem a discutir os possíveis efeitos negativos da tecnologia antes de publicarem abertamente todos os avanços, da mesma forma como físicos e geneticistas nucleares consideram de que forma seu trabalho poderia ser mal utilizado antes de torná-lo público.

“Parece que há um cenário provável em que haveria progresso constante”, disse Alec Radford, um dos co-autores do artigo. “Devemos estar tendo a discussão em torno de se isso continuar a melhorar, quais são as coisas que devemos considerar?”

Os chamados modelos de linguagem que permitem que os computadores leiam e escrevam normalmente são “treinados” para tarefas específicas, como traduzir idiomas, responder a perguntas ou resumir textos. Esse treinamento geralmente vem com uma cara supervisão humana e conjuntos de dados especiais.

O artigo do OpenAI descobriu que um modelo de linguagem geral, capaz de muitas dessas tarefas especializadas, pode ser treinado sem muita intervenção humana e alimentar-se com textos disponíveis na internet. Isso removeria duas grandes barreiras a seu desenvolvimento.

O modelo permanece a alguns anos de trabalhar de forma confiável e requer uma computação em nuvem cara para ser construída. Mas esse custo pode cair rapidamente.

“Estamos a alguns anos de isso ser algo que um entusiasta pode fazer em casa de maneira fácil”, disse Sam Bowman, professor assistente da Universidade de Nova York, que não esteve envolvido na pesquisa, mas fez uma revisão. “Já é algo que um amador bem financiado com um diploma avançado poderia fazer, com muito trabalho.”

Em um movimento que pode desencadear controvérsias, a OpenAI está descrevendo seu trabalho no artigo, mas não divulgou o modelo por preocupação de que poderia ser mal utilizado.

“Ainda não estamos em um estágio em que estamos dizendo que isso é um perigo”, disse Dario Amodei, diretor de pesquisa da OpenAI. “Estamos tentando conscientizar as pessoas sobre esses problemas e iniciar uma conversa.”

Os pesquisadores querem que seus colegas cientistas comecem a discutir os possíveis efeitos negativos da tecnologia antes de publicarem abertamente todos os avanços Foto: Creative Commons

Um grupo de pesquisa apoiado por pesos pesados do Vale do Silício divulgou na quinta-feira, 14, um documento mostrando que a tecnologia capaz de gerar notícias realistas a partir de pouco mais do que uma sugestão de título está pronta para evoluir rapidamente nos próximos anos.

O OpenAI, grupo apoiado pelo fundador do LinkedIn, Reid Hoffman, foi criado para pesquisar como tornar as cada vez mais poderosas ferramentas de inteligência artificial mais seguras. O grupo descobriu, entre outras coisas, que os computadores, já usados para escrever breves notícias automáticas baseadas em releases de imprensa, podem ser treinados para ler e escrever blocos de texto longos, de maneira mais fácil do que se pensava anteriormente.

Uma das coisas que o grupo mostrou no artigo é que seu modelo é capaz de “escrever notícias sobre cientistas descobrindo unicórnios falantes”.

Os pesquisadores querem que seus colegas cientistas comecem a discutir os possíveis efeitos negativos da tecnologia antes de publicarem abertamente todos os avanços, da mesma forma como físicos e geneticistas nucleares consideram de que forma seu trabalho poderia ser mal utilizado antes de torná-lo público.

“Parece que há um cenário provável em que haveria progresso constante”, disse Alec Radford, um dos co-autores do artigo. “Devemos estar tendo a discussão em torno de se isso continuar a melhorar, quais são as coisas que devemos considerar?”

Os chamados modelos de linguagem que permitem que os computadores leiam e escrevam normalmente são “treinados” para tarefas específicas, como traduzir idiomas, responder a perguntas ou resumir textos. Esse treinamento geralmente vem com uma cara supervisão humana e conjuntos de dados especiais.

O artigo do OpenAI descobriu que um modelo de linguagem geral, capaz de muitas dessas tarefas especializadas, pode ser treinado sem muita intervenção humana e alimentar-se com textos disponíveis na internet. Isso removeria duas grandes barreiras a seu desenvolvimento.

O modelo permanece a alguns anos de trabalhar de forma confiável e requer uma computação em nuvem cara para ser construída. Mas esse custo pode cair rapidamente.

“Estamos a alguns anos de isso ser algo que um entusiasta pode fazer em casa de maneira fácil”, disse Sam Bowman, professor assistente da Universidade de Nova York, que não esteve envolvido na pesquisa, mas fez uma revisão. “Já é algo que um amador bem financiado com um diploma avançado poderia fazer, com muito trabalho.”

Em um movimento que pode desencadear controvérsias, a OpenAI está descrevendo seu trabalho no artigo, mas não divulgou o modelo por preocupação de que poderia ser mal utilizado.

“Ainda não estamos em um estágio em que estamos dizendo que isso é um perigo”, disse Dario Amodei, diretor de pesquisa da OpenAI. “Estamos tentando conscientizar as pessoas sobre esses problemas e iniciar uma conversa.”

Os pesquisadores querem que seus colegas cientistas comecem a discutir os possíveis efeitos negativos da tecnologia antes de publicarem abertamente todos os avanços Foto: Creative Commons

Um grupo de pesquisa apoiado por pesos pesados do Vale do Silício divulgou na quinta-feira, 14, um documento mostrando que a tecnologia capaz de gerar notícias realistas a partir de pouco mais do que uma sugestão de título está pronta para evoluir rapidamente nos próximos anos.

O OpenAI, grupo apoiado pelo fundador do LinkedIn, Reid Hoffman, foi criado para pesquisar como tornar as cada vez mais poderosas ferramentas de inteligência artificial mais seguras. O grupo descobriu, entre outras coisas, que os computadores, já usados para escrever breves notícias automáticas baseadas em releases de imprensa, podem ser treinados para ler e escrever blocos de texto longos, de maneira mais fácil do que se pensava anteriormente.

Uma das coisas que o grupo mostrou no artigo é que seu modelo é capaz de “escrever notícias sobre cientistas descobrindo unicórnios falantes”.

Os pesquisadores querem que seus colegas cientistas comecem a discutir os possíveis efeitos negativos da tecnologia antes de publicarem abertamente todos os avanços, da mesma forma como físicos e geneticistas nucleares consideram de que forma seu trabalho poderia ser mal utilizado antes de torná-lo público.

“Parece que há um cenário provável em que haveria progresso constante”, disse Alec Radford, um dos co-autores do artigo. “Devemos estar tendo a discussão em torno de se isso continuar a melhorar, quais são as coisas que devemos considerar?”

Os chamados modelos de linguagem que permitem que os computadores leiam e escrevam normalmente são “treinados” para tarefas específicas, como traduzir idiomas, responder a perguntas ou resumir textos. Esse treinamento geralmente vem com uma cara supervisão humana e conjuntos de dados especiais.

O artigo do OpenAI descobriu que um modelo de linguagem geral, capaz de muitas dessas tarefas especializadas, pode ser treinado sem muita intervenção humana e alimentar-se com textos disponíveis na internet. Isso removeria duas grandes barreiras a seu desenvolvimento.

O modelo permanece a alguns anos de trabalhar de forma confiável e requer uma computação em nuvem cara para ser construída. Mas esse custo pode cair rapidamente.

“Estamos a alguns anos de isso ser algo que um entusiasta pode fazer em casa de maneira fácil”, disse Sam Bowman, professor assistente da Universidade de Nova York, que não esteve envolvido na pesquisa, mas fez uma revisão. “Já é algo que um amador bem financiado com um diploma avançado poderia fazer, com muito trabalho.”

Em um movimento que pode desencadear controvérsias, a OpenAI está descrevendo seu trabalho no artigo, mas não divulgou o modelo por preocupação de que poderia ser mal utilizado.

“Ainda não estamos em um estágio em que estamos dizendo que isso é um perigo”, disse Dario Amodei, diretor de pesquisa da OpenAI. “Estamos tentando conscientizar as pessoas sobre esses problemas e iniciar uma conversa.”

Atualizamos nossa política de cookies

Ao utilizar nossos serviços, você aceita a política de monitoramento de cookies.