Comprometida com a entrega do plano nacional de inteligência artificial (IA), a ministra da Ciência, Tecnologia e Inovação, Luciana Santos, afirmou nesta quinta-feira que o governo está realizando uma força-tarefa para apresentar o projeto até junho.
A proposta de atualização da estratégia brasileira de IA prevê, segundo ela, não só um diagnóstico do país em termos de infraestrutura e capacidade instalada de rede. Há também o objetivo de estipular metas e previsões orçamentárias tendo em vista a realidade brasileira, de modo que sejam adotadas soluções soberanas de IA:
— Infelizmente, somos hoje consumidores de soluções. Mas precisamos ser produtores porque precisamos ter autonomia. Está em curso uma força-tarefa apresentarmos um diagnóstico, mas também as necessidades para melhorarmos a nossa infraestrutura a partir dos dez centros de competência que há no Brasil — afirmou Luciana, durante live promovida pelo jornais O GLOBO e Valor e a rede de rádio CBN.
Em conversa com especialistas para debater os riscos e oportunidades da inteligência artificial, a ministra reconheceu que não é possível abranger todos os desafios que o país enfrenta em meio à ascensão da nova tecnologia. Por isso, o plano deverá considerar o estágio em que o país se encontra e fazer escolhas associadas às suas vocações:
— A IA tem que dialogar com a nova indústria brasileira. Também não tem como o Brasil fugir de soluções de IA para a agricultura porque essa é uma de nossas potências. Na área educacional, temos tecnologias que vão nos ajudar a enfrentar disparidades e dar soluções mais assertivas para melhoria dos indicadores de qualidade na educação — sugeriu Luciana.
Bruno Bioni, diretor-fundador da Data Privacy Brasil, concordou com a ministra ao dizer que não dá para o Brasil “ser competitivo em tudo”, mas destacou que o país tem capacidade para se posicionar de forma adequada geopoliticamente.
Ele argumentou que o país pode ter soluções de IA com base na lógica ‘small data’ - ou seja, que utilizem bases de dados próprias para treinar modelos de escala menor, diferentemente dos populares grandes modelos de linguagem (LLM) que abrangem diferentes usos.
— É possível criar modelos de IA dentro de bancos de dados mais controlados e que vão responder às necessidades e desafios próprios da nossa localidade. Esse balanço entre o local, regional e global é muito importante.
A boa notícia, segundo os especialistas, é que o Brasil têm, este ano, a oportunidade de endereçar a discussão sobre inteligência artificial a partir do olhar dos países do Sul Global.
Isso porque o país lidera a presidência do G20 — grupo das 20 maiores economias do mundo — e o próximo encontro da cúpula de líderes, marcado para novembro, no Brasil, prevê discutir o tema. Além disso, o presidente Lula quer já em setembro apresentar a política nacional de IA durante a abertura da Assembleia Geral da ONU.
A ministra Luciana Santos, que também coordena o subgrupo de IA do grupo de trabalho de Economia Digital do G20, defendeu cooperação técnica entre países do Sul Global:
— Há de haver um espírito colaborativo. A produção de ciência é mais eficaz quando se dá em rede. Vamos apresentar necessidades de desenvolvimento conjunto de soluções para partilhar infraestrutura. Essa é um pouco da pegada em relação ao Sul Global nessa agenda — disse ela.
Para Fernando Ferreira, pesquisador do Netlab UFRJ, no entanto, o Brasil ainda carece de uma etapa crucial: a qualificação das informações para treinar modelos de IA - já que nem sempre os dados públicos estão disponíveis de modo “consistente e limpo”, disse. Nesse sentido, o quadro torna ainda mais urgente a regulamentação da inteligência artificial para o desenvolvimento de soluções:
— A regulamentação é importante porque precisamos entender quais são os dados utilizados, as bases de validação e os erros que os modelos trazem para nossa sociedade. Precisamos disso regulamentado porque se não cada um opera da maneira que quiser e isso tende a não funcionar — alertou.
No âmbito nacional, a discussão sobre regulação da inteligência artificial está amadurecendo, avaliou Bioni, copresidente de Transformação Digital Inclusiva do T20. O jurista, que integrou a Comissão do Senado Federal de juristas sobre IA, disse que o país está construindo um modelo regulatório com base nas discussões que vêm ocorrendo no Reino Unido e nos Estados Unidos.
Durante a conversa, Bioni explicou que o relatório preliminar apresentado pelo senador Eduardo Gomes (PL) em abril prevê um sistema nacional de regulação e governança de inteligência artificial (SIA) e tem sido bem aceito entre especialistas.
— É uma proposta que bebe daquilo que há de melhor no mundo, ainda que não seja imune de críticas. O texto fixa obrigações do poder público em todas as esferas para investir em educação e interoperabilidade tecnológica para não perdermos soberania, além de priorizar aquilo que há de material e humano na IA, como a valorização do trabalho — afirmou.
Segundo a ministra, ainda há controvérsias sobre a autoridade que será responsável pela coordenação do SIA. Mas ela está otimista de o texto ser aprovado ainda este ano:
— Há uma polêmica sobre qual seria essa autoridade e isso é algo que estamos procurando construir politicamente para entrar neste debate mais polêmico com espírito de consenso. Mas acho que a gente consegue aprovar ainda esse ano (a regulação de IA) — disse a ministra.
Na visão de Bioni, o debate em torno da regulação da inteligência artificial no Brasil reforça ainda a discussão de outro projeto: o PL das redes sociais. Afinal, a IA potencializa riscos já existentes e não resolvidos no ambiente digital.
— Ambos os projetos de lei têm sinergia com uma coisa cara que é: só vamos ter regulação e governança de forma madura se fizermos isso em rede. Os pesquisadores precisam ter acesso a dados para entendermos como os sistemas funcionam.
Segundo a ministra, a discussão sobre o PL das redes sociais deverá ser retomada em breve:
— Esse é um assunto que eu penso que a gente vai poder retomar imediatamente após a interlocução do processo da regulação (da IA). Nós vamos, da nossa parte, tomar iniciativas na direção de retomar esse marco legal que precisa ser cada vez mais efetivo e equilibrado — garantiu.
— É preciso pensar em ferramentas que façam com a detecção (de conteúdo falso) seja mais simples e que haja responsabilização de quem vincula informação de modo massivo, entendendo como os algoritmos das plataformas impulsionam isso — concluiu.
© Reportagem diária do entretenimento brasileiro