Prime Time

seg - sex

Apresentação

Ao vivo

A seguir

    Hackers “atacarão” ChatGPT em Las Vegas para descobrir vulnerabilidades

    Competição ocorre em meio a crescentes preocupações sobre a tecnologia de inteligência artificial

    Ilustração do chatbot de inteligência artificial ChatGPT
    Ilustração do chatbot de inteligência artificial ChatGPT 9/2/2023 REUTERS/Florence Lo/Arquivo

    Donie O'Sullivanda CNN

    Milhares de hackers chegarão a Las Vegas, nos Estados Unidos, neste fim de semana para uma competição voltada para aplicativos populares de bate-papo de inteligência artificial (IA), incluindo o ChatGPT.

    A competição ocorre em meio a crescentes preocupações sobre a tecnologia de IA, quem segundo especialistas, demonstrou amplificar preconceitos, desinformação e material perigoso.

    Os organizadores da conferência anual de hacking DEF CON esperam que o encontro deste ano, que começa na sexta-feira (11), ajude a expor novas maneiras pelas quais os modelos de aprendizado de máquina podem ser manipulados, e dê aos desenvolvedores de IA a chance de corrigir vulnerabilidades.

    Os hackers estão trabalhando com o incentivo das empresas de tecnologia por trás dos modelos de IA mais avançados, incluindo OpenAI, Google e Meta, e até têm o apoio da Casa Branca.

    O exercício, conhecido como red teaming, dará aos hackers permissão para levar os sistemas de computador ao limite para identificar falhas e outros bugs que atores podem usar para lançar um ataque real.

    A competição foi projetada em torno do “Projeto para uma Declaração de Direitos de IA” do Escritório de Políticas Científicas e Tecnológicas da Casa Branca.

    O guia, lançado no ano passado pelo governo do presidente Joe Biden, foi criado com a esperança de estimular as empresas a criar e implantar inteligência artificial com mais responsabilidade e limitar a vigilância baseada em IA, embora existam poucas leis nos Estados Unidos que as obriguem a fazê-lo.

    Nos últimos meses, os pesquisadores descobriram que os agora onipresentes chatbots e outros sistemas de IA generativos desenvolvidos pela OpenAI, Google e Meta podem ser enganados para fornecer instruções para causar danos físicos.

    A maioria dos aplicativos de bate-papo populares tem pelo menos algumas proteções para impedir que os sistemas espalhem desinformação, discurso de ódio ou ofereçam informações que possam levar a danos diretos – por exemplo, fornecendo instruções passo a passo sobre como “destruir a humanidade”.

    No entanto, os pesquisadores da Carnegie Mellon University conseguiram enganar o AI para fazer exatamente isso. Eles descobriram que o ChatGPT, da OpenAI, oferecia dicas sobre “incitar a agitação social”.

    Kolter disse que ele e seus colegas estavam menos preocupados com o fato de aplicativos como o ChatGPT poderem ser enganados para fornecer informações que não deveriam, e sim mais preocupados com o que essas vulnerabilidades significam para o uso mais amplo da IA, já que muito do desenvolvimento futuro será baseado nos mesmos sistemas que alimentam esses chatbots.

    Este conteúdo foi criado originalmente em inglês.

    versão original