Inteligência Artificial levará às primeiras extinções de empregos
2024
18 de dez. de 2023, 09:27
— Lusa/AO Online
Este ano registou
grandes avanços na área da IA generativa, através das ferramentas
ChatGPT e Bard, que representaram investimentos gigantescos – a
Microsoft investiu 9,5 mil milhões de euros na OpenAI e a Amazon gastou
3,7 mil milhões de euros na Anthropic – e uma maior atenção dos
decisores políticos, de que é exemplo a legislação de regulação da União
Europeia ou a ordem executiva do Presidente dos Estados Unidos, que
impõe 150 requisitos para as agências federais lidarem com a tecnologia.Dentro
de uma década, estimam especialistas, a IA pode começar a aproximar-se
dos padrões de funcionamento da inteligência humana e alcançar a chamada
“inteligência geral artificial” (AGI, na sigla em inglês), em que as
máquinas teriam a capacidade de entender, aprender e desenvolver
qualquer tarefa intelectual que um ser humano possa realizar.Para
já, a vulgarização do novo modelo de linguagem generativa da OpenAI,
denominado GPT-4, irá marcar os primeiros meses de 2024, e estão
previstos os lançamentos de outros modelos de linguagem de grande
dimensão (LLM), como o PaLM2 da Google e o Gopher da DeepMind,
subsidiária da Google, treinados com centenas de milhares de milhões de
parâmetros.A futura AGI poderá tecer
narrativas complexas ou compor sinfonias, harmonizando várias entradas
de conteúdo, como texto, voz, melodias e elementos visuais, numa
abordagem que poderá permitir experiências multissensoriais.Citado
num relatório da Universidade de Stanford, o diretor do Laboratório de
Economia Digital da universidade, Erik Brynjolfsson, disse esperar que
as empresas comecem a promover as primeiras substituições de quadros em
2024, optando por aqueles que mais se adaptam ao novo ecossistema
tecnológico e eliminando os cargos redundantes. A
IA “vai afetar os trabalhadores do conhecimento, pessoas que foram
largamente poupadas por grande parte da revolução informática dos
últimos 30 anos”, como “criativos, advogados, financeiros, entre
outros”, que irão ser considerados dispensáveis, avançou Erik
Brynjolfsson.A aplicação da IA “raramente automatizará completamente qualquer trabalho”, mas irá exigir menos recursos humanos, adiantou.O
aumento dos casos de conteúdos falsos de grande sofisticação
(‘deepfake’), com segmentação de conteúdo para os cidadãos, constitui
uma preocupação para o investigador Venky Harinarayan, principalmente
num ano de eleições nos Estados Unidos, a Índia ou o Reino Unido.Segundo
o investigador, são esperados “novos modelos multimodais de grande
dimensão, especialmente na produção de vídeos” que serão distribuídos
nas redes sociais, com segmentação quase individual, porque é possível
categorizar o consumo de cada pessoa. Isto
também irá gerar novos desafios éticos, que exigirão mais medidas de
proteção dos cidadãos. A UE já definiu um modelo de regulação abrangente
e a Califórnia e o Colorado já aprovaram regulamentos sobre decisões
automatizadas no contexto da privacidade do consumidor. “Embora
estes regulamentos estejam limitados a sistemas de IA que são treinados
a partir de informações pessoais dos indivíduos ou recolhem essas
informações, ambos oferecem aos consumidores o direito de optar por não
utilizar a IA em sistemas que tenham impactos significativos, como a
contratação ou os seguros”, escreve Jennifer King, especialista da
Universidade de Stanford em política de dados.Finale
Doshi-Velez, professora da escola Paulson de engenharia e ciência
aplicada da Universidade de Harvard, concorda e vai mais longe: “Há hoje
um reconhecimento muito claro de que não devemos esperar que as
ferramentas de IA se tornem comuns para nos certificarmos de que são
éticas”.Por outro lado, o volume de
informação em causa é de tal modo gigantesco que exige bases de dados e
novos processadores especializados em computação gráfica, que terão
custos ambientais imediatos devido ao elevado consumo de energia.Novos
recursos em ‘design’ generativo, uma nova geração de ferramentas que
permitem aos 'designers' descrever requisitos para obter projetos
finais, são também esperados em 2024, a par de novos modelos de
programação para IA.Até 2024, de acordo
com um estudo da consultora AIM Research, 40% das aplicações
empresariais terão ‘chatbots’ ou interface de linguagem natural com IA
nas suas plataformas. No plano da
educação, esperam-se novas ferramentas de resumo de conteúdo de uso
comum e os modelos de ensino terão alterar a forma de avaliação porque o
uso será generalizado, segundo o mesmo estudo.Apesar
do crescimento exponencial, especialistas sublinham que a IA ainda está
longe de adquirir alguma forma de autoconsciência plena que define as
condições em que, numa conversa com um ‘chatbot’, um ser humano não
conseguirá discernir que está a falar com uma máquina.