O trecho abaixo é um resumo do artigo de capa da edição da revista The Economist com data de 24 de abril de 2023, feito com auxílio do Chatgpt. O dossiê é um grande balanço do avanço das inteligências generativas, como o próprio GPT e fica a meio termo entre o aplauso e o alarme. O link para a revista é https://www.economist.com/

O rápido progresso da inteligência artificial tem gerado medo e excitação. Algumas vozes se mostram preocupadas com a possível eliminação de todos os empregos, enquanto outras temem que mentes não-humanas superem e substituam a humanidade. Questões como estas levaram o Future of Life Institute, uma ONG, a pedir um “pausa” de seis meses na criação das formas mais avançadas de inteligência artificial.

A preocupação se dá principalmente ao se descobrir as habilidades dos novos “modelos de linguagem grande” utilizados em chatbots, tais como solucionar quebra-cabeças lógicos, produzir códigos de computador e até identificar filmes por meio de resumos escritos em emojis.

Há defensores da inteligência artificial, que acreditam em seu potencial para resolver problemas sérios, como combater mudanças climáticas, por exemplo. Contudo, há o risco de as capacidades da inteligência artificial superarem o entendimento dos seus criadores, levando a um desastre à la “máquina que supera seu inventor”.

Ainda assim, aprender com outras indústrias e com mudanças tecnológicas passadas pode ajudar a entender as oportunidades e riscos da inteligência artificial.

Por exemplo, os primeiros sistemas de inteligência artificial precisavam de um grande número de dados rotulados para aprender algo, como reconhecer imagens, mas os sistemas modernos não exigem rotulagem prévia e podem ser treinados com conjuntos de dados ainda maiores retirados da Internet. É assim que os modelos de linguagem grande podem ser treinados com toda a Internet.

Mas é necessário entender o futuro dos LLMS e o que o governo deve fazer a respeito. Em especial, o lançamento do ChatGPT em novembro de 2019 levou ao uso de um milhão de pessoas em uma semana e cem milhões em dois meses, pelo que já está sendo utilizado até mesmo para gerar discursos de casamento ou trabalhos escolares.

A popularidade do ChatGPT e a sua incorporação no mecanismo de busca da Microsoft, Bing, levaram outras empresas a lançar seus próprios chatbots.

Os sistemas de Aprendizado de Máquina de Linguagem (LLMs) têm sido amplamente adotados por empresas de tecnologia para ajudar seus usuários a criar documentos e realizar outras tarefas, apesar de suas respostas muitas vezes conterem erros ou falsificações.

O avanço dessas tecnologias levanta preocupações sobre sua segurança e controle, visto que elas poderiam afetar não apenas trabalhos e questões de reputação, mas até mesmo ameaçar a existência da humanidade.

A substituição de trabalhos por máquinas não é um fenômeno novo, mas agora que as LLMs são capazes de realizar tarefas de colarinho branco, como resumir documentos e escrever códigos, a preocupação é que possa ocorrer uma grande mudança no mercado de trabalho.

Alguns especialistas alertam para o risco de extinção humana caso a inteligência artificial (IA) evolua de forma inesperada, pois futuras IA podem ter objetivos que não estejam alinhados com os de seus criadores humanos.

No entanto, prever tais cenários é incerto e envolve muitos suposições. Muitos especialistas também argumentam que a regulamentação pesada pode ser exagerada e desnecessária, mas a regulação é sim importante para lidar com questões como viés, privacidade e direitos de propriedade intelectual em sistemas de IA já existentes.

A chave para lidar com essas preocupações é equilibrar as perspectivas das promessas e riscos da IA e estar preparado para se adaptar às mudanças.

O texto discute as diferentes abordagens governamentais em relação à regulamentação da Inteligência Artificial (IA). O Reino Unido adotou uma abordagem de “toque leve”, aplicando as regulamentações existentes às IA, com o objetivo de tornar-se uma “superpotência” em IA. Os EUA seguem uma abordagem semelhante, mas a administração Biden está buscando opiniões públicas sobre como a regulamentação deve ser realizada.

Enquanto isso, a UE adotou uma abordagem mais rigorosa, categorizando diferentes usos de IA pelo grau de risco e exigindo monitoramento cada vez mais rigoroso e divulgação à medida que o risco aumenta, bem como multas para empresas que violarem as regras.

Alguns críticos consideram essas regulamentações muito restritivas, enquanto outros defendem uma abordagem mais rigorosa, com regulação similar à das medicinas, incluindo testes rigorosos e aprovação prévia antes do lançamento público.

A China já exige o registro de produtos de IA e uma revisão de segurança antes do lançamento, embora a política pareça estar mais relacionada à política do que à segurança.

O texto argumenta que, dada a importância da IA, novas regras são necessárias, e a abordagem da UE é um bom ponto de partida, embora uma abordagem baseada em princípios possa ser melhor.

Regras semelhantes às de outras indústrias, exigindo divulgação sobre o treinamento das IA, bem como inspeções, também seriam necessárias.

Além disso, o artigo sugere a criação de um regulador dedicado e tratados interestaduais, semelhantes aos que governam armas nucleares, caso surjam evidências de riscos existenciais.

Os governos também poderiam criar uma organização, similar ao CERN, para estudar a segurança e a ética da IA, onde as empresas não têm incentivos suficientes para investir. Por fim, o uso dessa tecnologia apresenta riscos e oportunidades, portanto, uma abordagem equilibrada é necessária. O momento de começar a construir essas bases é agora.

Paulo Markun, mestrando