Lançado há menos de um ano, o ChatGPT se tornou uma grande vitrine do potencial de mudanças que as inteligências artificiais generativas poderão gerar na economia. Para Martha Gabriel, escritora, consultora e especialista em tecnologia, isso mostra também a necessidade de deixar preconceitos de lado e aprender a usar essas ferramentas, evitando "ficar para trás" dessa revolução.
Em entrevista exclusiva à EXAME após sua participação no evento NFT Brasil, a especialista destaca que o sucesso do ChatGPT ocorreu de uma mudança na forma de contato entre a inteligência artificial e a população em geral. "As IAs existem há 10 anos, mas antes nós éramos usuários secundários. Com o ChatGPT, você começar a ter uma IA democrática", explica Gabriel.
Esse movimento permite que as pessoas tenham mais acesso à tecnologia, com suas vantagens e diferentes aplicações tanto no trabalho quanto em outras atividades do dia a dia. E a especialista ressalta que tudo isso "está só no começo. É a ponta do iceberg, uma mostra do que vai ser. As pessoas criticam os erros das IAs por exemplo, falam que vão burlar, mas a tendência é que, com o tempo, as IAs vão aumentar cada vez mais a precisão".
Por isso, ela defende que é importante que as pessoas acompanhem essa tecnologia e aprendam a usá-la. Para Martha Gabriel, "o único caminho para lidar com a inteligência artificial é aprender a usá-la. A IA já substitui atividades e vai continuar fazendo isso, porque é algo que ocorre ao longo da história da humanidade. Quando a tecnologia faz algo melhor que o humano, há a substituição".
Entretanto, ela pontua que "quem substitui uma pessoa no trabalho é o humano que sabe usar melhor a tecnologia", o que torna muito importante entender o que é uma inteligência artificial, qual o seu potencial, limites e casos de uso. Esse processo envolver "mudar a mentalidade" em relação à tecnologia e deixar preconceitos de lado, que muitas vezes acabam atrapalhando no contato com novidades.
EDUCAÇÃO SOBRE INTELIGÊNCIA ARTIFICIAL
E a educação também deverá ter um papel essencial nesse processo, segundo Martha Gabriel. Para ela, uma melhoria no ensino é urgente, ajudando as pessoas a "saber qual ferramenta usar, quais estão usando por aí, os diferentes tipos. Sem isso, não entende a questão dos vieses, de entender se uma IA é realmente confiável. O que acontece se você estrutura a sociedade em cima de algo com falhas?".
Ao mesmo tempo, ela pondera que é importante pensar não apenas nos problemas do futuro, mas entender e solucionar os problemas do presente: "é preciso questões de vieses, trabalhar em desenvolvimentos, acordos, para resolver as coisas agora, porque se não resolver agora, a IA não vai ser ética no futuro, não vai ter essa base".
No caso do Brasil, Martha Gabriel vê um "sistema operacional ruim" que atrapalha tanto a área de educação quanto a de inovação. Mesmo assim, ela destaca um esforço recente de trabalhar mais conteúdos educativos sobre tecnologia, o que a deixa "otimista".
Outro ponto que ela considera importante é a carta divulgada recentemente e assinada por especialistas e executivos, como Elon Musk e Yuval Noah Harari, pedindo uma pausa nas pesquisas de inteligência artificial. "Eles não são ingênuos de acharem que ia efetivamente parar tudo, e existem interesses comerciais por trás, mas a carta foi incrível porque trouxe o assunto na mídia. As pessoas sabem que existem coisas que precisam ser pensadas, essa disseminação ajuda na educação", pondera.
E a regulação também é um tema necessário ao pensar em inteligência artificial, com os riscos dessa tecnologia. O cenário piorou na visão de Gabriel, já que, anteriormente, as IAs de ponta eram desenvolvidas em universidade e ambientes de pesquisa privada, mas agora estão surgindo na área de produção, com forte competição entre empresas.
"Todo algoritmo tem objetivo, viés, e a implementação também viés. Nessa correria por poder de mercado, os interesses são específicos de cada empresa, e várias das coisas que deveríamos parar pra pensar, entender as consequências, acabam sendo passadas por cima. As empresas estão sempre direcionado a tecnologia para competição de mercado, e não em soluções para a humanidade", afirma.
Para a especialista, a necessidade de investir mais em educação e de regular a nova tecnologia mostra a "responsabilidade enorme" dos governos. Ela destaca que "não é só regular. Você precisa de novas réguas para regulação, de formas de fazer, porque em 6 meses o ChatGPT já mudou de versão, e as leis não seguem isso, e não adianta regular sem fazer cumprir também".
"Com políticas públicas o Estado consegue isso, ações de órgãos públicos, não dependendo nem do governo central. Se o governo, de maneira sistêmica, mudasse o incentivo para tecnologia, inovação e educação muito rapidamente conseguiria começar a colher esses resultados. Se não tem políticas de cima pra baixo, não tem inovação sistêmica", diz a especialista.