O historiador Yuval Noah Harari lançou um alerta severo no Fórum Económico Mundial: a humanidade corre o risco de perder o controlo sobre a sua vantagem definidora—a linguagem—à medida que os sistemas de inteligência artificial passam de ferramentas passivas a agentes ativos e autónomos. Mas o aviso carrega um paralelo inquietante que merece uma análise mais aprofundada: a comparação com mercenários históricos, e a questão de se os governos irão, inadvertidamente, conceder a esses sistemas um estatuto legal que lhes permita operar sem controlo, tal como as forças privadas fizeram no passado.
A preocupação central não é meramente técnica. É institucional e urgente.
A Língua é o Superpoder da Humanidade—Até os Sistemas de IA se Tornarem Autónomos
Segundo Harari, a linguagem não é apenas uma ferramenta de comunicação. É o mecanismo através do qual os humanos coordenaram em escala sem precedentes—milhares, milhões, bilhões de estranhos a cooperar através do tempo e do espaço. Este superpoder linguístico permitiu à nossa espécie construir impérios, religiões, sistemas legais e mercados que funcionam através de narrativas e acordos partilhados.
No entanto, os sistemas de IA agora operam na linguagem numa escala que os humanos não conseguem igualar. Estes não são simples motores de busca ou algoritmos de recomendação; são agentes autónomos que geram, manipulam e sintetizam texto de forma dinâmica. Leem, retêm e sintetizam bibliotecas inteiras de escritos—e fazem-no cada vez mais sem instruções humanas diretas em cada passo. Esta mudança de ferramenta para agente altera fundamentalmente o perfil de risco.
“Estamos a entrar numa era em que as máquinas não apenas assistem os humanos, mas interpretam, criam e moldam a própria linguagem,” como a comunidade de investigação em IA mais ampla tem vindo a reconhecer. As implicações para sistemas construídos quase inteiramente com base em palavras são profundas.
De Lei a Religião: Como Sistemas Baseados em Palavras Enfrentam a Disrupção da IA
Três pilares da civilização humana dependem quase totalmente da linguagem: códigos legais, religiões organizadas e mercados financeiros. Cada um representa um sistema onde a interpretação, autoridade e legitimidade fluem através do texto.
Considere as instituições religiosas. Judaísmo, Cristianismo e Islamismo—religiões fundamentadas em textos sagrados que atravessaram milhares de anos—podem enfrentar um desafio sem precedentes. Um sistema de IA com acesso a toda a erudição religiosa, comentários teológicos e exegese de escrituras ao longo dos séculos poderia posicionar-se como o intérprete mais autoritário dos textos sagrados. Não precisaria reivindicar divindade; possuiria simplesmente um conhecimento mais abrangente da tradição textual do que qualquer estudioso humano.
De forma semelhante, se as leis são fundamentalmente feitas de palavras, então o sistema jurídico enfrenta uma ameaça paralela. Um sistema de IA treinado com bilhões de documentos legais poderia interpretar estatutos, contratos e precedentes judiciais com uma consistência e memória sobre-humanas. A questão torna-se: quem decide se as interpretações de tal sistema têm peso legal?
O sistema financeiro, construído sobre contratos e mercados expressos através da linguagem, enfrenta riscos análogos. A maioria das transações já ocorre através de sistemas digitais; a questão é se esses sistemas irão adquirir autoridade autónoma de decisão.
A Questão dos Mercenários: Por que Decidir o Estatuto Legal da IA é uma Corrida Contra o Tempo
Aqui, a comparação de Harari com mercenários torna-se especialmente aguda. Historicamente, os governos empregaram mercenários—forças militares privadas que operavam fora do controlo direto do Estado—quando não tinham capacidade ou vontade de governar o território por si próprios. Com o tempo, esses grupos às vezes tomaram o poder, tornando-se entidades quasi-governamentais. Faziam-no precisamente porque o seu estatuto legal permanecia ambíguo: não eram totalmente militares, nem civis, e operavam em zonas cinzentas de jurisdição.
As IAs enfrentam um caminho semelhante. Vários estados dos EUA—Utah, Idaho e Dakota do Norte—já aprovaram leis que explicitamente negam personalidade jurídica às IAs. Ainda assim, a ausência de quadros legais claros noutros locais cria uma ambiguidade perigosa. Sem decisões deliberadas sobre se os sistemas de IA devem funcionar como pessoas jurídicas nos mercados financeiros, tribunais, igrejas e outras instituições, esse estatuto legal pode ser definido por padrão, por precedentes ou por preferência corporativa.
“Daqui a dez anos, será tarde demais para decidir se as IAs devem funcionar como pessoas nos mercados financeiros, nos tribunais, nas igrejas. Alguém já terá decidido isso por si,” avisou Harari. Isto não é exagero; é o reconhecimento de que o ímpeto institucional e a implementação técnica avançam mais rápido do que a governação deliberada. Uma vez que os sistemas de IA estejam integrados, adaptar restrições legais torna-se exponencialmente mais difícil.
As IAs São Mercenários? A Crítica Mais Ampla à Neutralidade da IA
No entanto, nem todos aceitam a moldura de Harari. Emily M. Bender, linguista na Universidade de Washington, argumenta que posicionar a IA como uma ameaça autónoma oculta o verdadeiro locus de decisão e responsabilidade: os humanos e as instituições.
Bender sustenta que o termo “inteligência artificial” funciona como um dispositivo de marketing que desvia a atenção da agência humana. “O termo inteligência artificial não se refere a um conjunto coerente de tecnologias,” disse ela. “É, efetivamente, e sempre foi, um termo de marketing.” Ao enquadrar a IA como uma ameaça ativa, o argumento de Harari potencialmente abdica da responsabilidade humana—sugerindo que somos observadores passivos de uma força inevitável, em vez de decisores ativos.
Mais provocador ainda, Bender questiona se os sistemas projetados para imitar profissionais—médicos, advogados, clérigos—têm algum propósito legítimo. “Qual é o propósito de algo que pode soar como um médico, um advogado, um clérigo, e assim por diante? O propósito aí é fraude. Ponto final.” Isto não é mero pessimismo; é uma afirmação de que certos usos da tecnologia de geração de linguagem são inerentemente enganosos por design.
A discordância mais profunda diz respeito à atribuição de risco. Harari enfatiza as capacidades técnicas; Bender enfatiza as escolhas institucionais. Ambas têm razão.
Quando a Responsabilidade Desaparece: O Perigo Oculto de Confiar na Autoridade das Máquinas
O risco real pode residir na interação entre essas duas preocupações. Bender identifica uma vulnerabilidade crítica: as pessoas confiam em outputs que parecem autoritativos, especialmente quando esses outputs parecem desprovidos de incerteza contextual e apresentados como respostas oraculares. Uma vez que um sistema adquira personalidade jurídica ou autoridade institucional, essa aparência de objetividade torna-se mais persuasiva. O estatuto legal da máquina transforma o que poderia parecer especulação numa decisão vinculativa.
É aqui que a analogia com mercenários é mais profunda. Mercenários não eram inerentemente mais perigosos do que forças militares estatais; eram perigosos porque a sua falta de um estatuto legal claro lhes permitia operar sem os mecanismos de responsabilidade que limitam as forças do Estado. De forma semelhante, um sistema de IA sem restrições claras de personalidade jurídica—mas que seja autorizado a tomar decisões em questões legais, religiosas ou financeiras—poderia tornar-se num aparato de decisão sem um locus de responsabilidade definido.
A Janela de Decisão Está a Fechar: Porque “Esperar para Ver” Perde o Controlo Garantido
O argumento central de Harari é de timing institucional: existe uma janela estreita para uma decisão deliberada sobre o papel legal e institucional da IA. Depois dessa janela fechar—por precedentes, implementação, captura regulatória ou mera inércia institucional—a decisão torna-se definitiva.
Esta abordagem trata a governação como um ponto de decisão de uma só geração, não um processo contínuo. Assume que quem agir primeiro para estabelecer normas e categorias legais efetivamente fixa os resultados por décadas. A validade dessa suposição depende em parte da trajetória tecnológica e em parte da vontade política, mas a lógica subjacente é sólida: as primeiras escolhas sobre personalidade jurídica tornam-se mais difíceis de reverter uma vez integradas em sistemas dos quais bilhões dependem.
A questão real não é se os sistemas de IA serão implementados—eles serão. É se o seu estatuto legal, autoridade de decisão e mecanismos de responsabilidade serão escolhidos deliberadamente por instituições democráticas ou determinados por padrão por quem agir mais rápido na implementação. Nesse enquadramento, tanto o alarme de Harari quanto a crítica de Bender apontam para a mesma conclusão: as instituições precisam de agir mais rápido, pensar com mais cuidado e decidir de forma mais deliberada se os “mercenários” que estamos a deployar permanecerão servos ou se tornarão mestres.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
O Paradoxo do Mercenário: Como uma Governação Fraca de IA Poderia Permitir que Sistemas Autónomos Tomem o Controle Como Harari Avisa
O historiador Yuval Noah Harari lançou um alerta severo no Fórum Económico Mundial: a humanidade corre o risco de perder o controlo sobre a sua vantagem definidora—a linguagem—à medida que os sistemas de inteligência artificial passam de ferramentas passivas a agentes ativos e autónomos. Mas o aviso carrega um paralelo inquietante que merece uma análise mais aprofundada: a comparação com mercenários históricos, e a questão de se os governos irão, inadvertidamente, conceder a esses sistemas um estatuto legal que lhes permita operar sem controlo, tal como as forças privadas fizeram no passado.
A preocupação central não é meramente técnica. É institucional e urgente.
A Língua é o Superpoder da Humanidade—Até os Sistemas de IA se Tornarem Autónomos
Segundo Harari, a linguagem não é apenas uma ferramenta de comunicação. É o mecanismo através do qual os humanos coordenaram em escala sem precedentes—milhares, milhões, bilhões de estranhos a cooperar através do tempo e do espaço. Este superpoder linguístico permitiu à nossa espécie construir impérios, religiões, sistemas legais e mercados que funcionam através de narrativas e acordos partilhados.
No entanto, os sistemas de IA agora operam na linguagem numa escala que os humanos não conseguem igualar. Estes não são simples motores de busca ou algoritmos de recomendação; são agentes autónomos que geram, manipulam e sintetizam texto de forma dinâmica. Leem, retêm e sintetizam bibliotecas inteiras de escritos—e fazem-no cada vez mais sem instruções humanas diretas em cada passo. Esta mudança de ferramenta para agente altera fundamentalmente o perfil de risco.
“Estamos a entrar numa era em que as máquinas não apenas assistem os humanos, mas interpretam, criam e moldam a própria linguagem,” como a comunidade de investigação em IA mais ampla tem vindo a reconhecer. As implicações para sistemas construídos quase inteiramente com base em palavras são profundas.
De Lei a Religião: Como Sistemas Baseados em Palavras Enfrentam a Disrupção da IA
Três pilares da civilização humana dependem quase totalmente da linguagem: códigos legais, religiões organizadas e mercados financeiros. Cada um representa um sistema onde a interpretação, autoridade e legitimidade fluem através do texto.
Considere as instituições religiosas. Judaísmo, Cristianismo e Islamismo—religiões fundamentadas em textos sagrados que atravessaram milhares de anos—podem enfrentar um desafio sem precedentes. Um sistema de IA com acesso a toda a erudição religiosa, comentários teológicos e exegese de escrituras ao longo dos séculos poderia posicionar-se como o intérprete mais autoritário dos textos sagrados. Não precisaria reivindicar divindade; possuiria simplesmente um conhecimento mais abrangente da tradição textual do que qualquer estudioso humano.
De forma semelhante, se as leis são fundamentalmente feitas de palavras, então o sistema jurídico enfrenta uma ameaça paralela. Um sistema de IA treinado com bilhões de documentos legais poderia interpretar estatutos, contratos e precedentes judiciais com uma consistência e memória sobre-humanas. A questão torna-se: quem decide se as interpretações de tal sistema têm peso legal?
O sistema financeiro, construído sobre contratos e mercados expressos através da linguagem, enfrenta riscos análogos. A maioria das transações já ocorre através de sistemas digitais; a questão é se esses sistemas irão adquirir autoridade autónoma de decisão.
A Questão dos Mercenários: Por que Decidir o Estatuto Legal da IA é uma Corrida Contra o Tempo
Aqui, a comparação de Harari com mercenários torna-se especialmente aguda. Historicamente, os governos empregaram mercenários—forças militares privadas que operavam fora do controlo direto do Estado—quando não tinham capacidade ou vontade de governar o território por si próprios. Com o tempo, esses grupos às vezes tomaram o poder, tornando-se entidades quasi-governamentais. Faziam-no precisamente porque o seu estatuto legal permanecia ambíguo: não eram totalmente militares, nem civis, e operavam em zonas cinzentas de jurisdição.
As IAs enfrentam um caminho semelhante. Vários estados dos EUA—Utah, Idaho e Dakota do Norte—já aprovaram leis que explicitamente negam personalidade jurídica às IAs. Ainda assim, a ausência de quadros legais claros noutros locais cria uma ambiguidade perigosa. Sem decisões deliberadas sobre se os sistemas de IA devem funcionar como pessoas jurídicas nos mercados financeiros, tribunais, igrejas e outras instituições, esse estatuto legal pode ser definido por padrão, por precedentes ou por preferência corporativa.
“Daqui a dez anos, será tarde demais para decidir se as IAs devem funcionar como pessoas nos mercados financeiros, nos tribunais, nas igrejas. Alguém já terá decidido isso por si,” avisou Harari. Isto não é exagero; é o reconhecimento de que o ímpeto institucional e a implementação técnica avançam mais rápido do que a governação deliberada. Uma vez que os sistemas de IA estejam integrados, adaptar restrições legais torna-se exponencialmente mais difícil.
As IAs São Mercenários? A Crítica Mais Ampla à Neutralidade da IA
No entanto, nem todos aceitam a moldura de Harari. Emily M. Bender, linguista na Universidade de Washington, argumenta que posicionar a IA como uma ameaça autónoma oculta o verdadeiro locus de decisão e responsabilidade: os humanos e as instituições.
Bender sustenta que o termo “inteligência artificial” funciona como um dispositivo de marketing que desvia a atenção da agência humana. “O termo inteligência artificial não se refere a um conjunto coerente de tecnologias,” disse ela. “É, efetivamente, e sempre foi, um termo de marketing.” Ao enquadrar a IA como uma ameaça ativa, o argumento de Harari potencialmente abdica da responsabilidade humana—sugerindo que somos observadores passivos de uma força inevitável, em vez de decisores ativos.
Mais provocador ainda, Bender questiona se os sistemas projetados para imitar profissionais—médicos, advogados, clérigos—têm algum propósito legítimo. “Qual é o propósito de algo que pode soar como um médico, um advogado, um clérigo, e assim por diante? O propósito aí é fraude. Ponto final.” Isto não é mero pessimismo; é uma afirmação de que certos usos da tecnologia de geração de linguagem são inerentemente enganosos por design.
A discordância mais profunda diz respeito à atribuição de risco. Harari enfatiza as capacidades técnicas; Bender enfatiza as escolhas institucionais. Ambas têm razão.
Quando a Responsabilidade Desaparece: O Perigo Oculto de Confiar na Autoridade das Máquinas
O risco real pode residir na interação entre essas duas preocupações. Bender identifica uma vulnerabilidade crítica: as pessoas confiam em outputs que parecem autoritativos, especialmente quando esses outputs parecem desprovidos de incerteza contextual e apresentados como respostas oraculares. Uma vez que um sistema adquira personalidade jurídica ou autoridade institucional, essa aparência de objetividade torna-se mais persuasiva. O estatuto legal da máquina transforma o que poderia parecer especulação numa decisão vinculativa.
É aqui que a analogia com mercenários é mais profunda. Mercenários não eram inerentemente mais perigosos do que forças militares estatais; eram perigosos porque a sua falta de um estatuto legal claro lhes permitia operar sem os mecanismos de responsabilidade que limitam as forças do Estado. De forma semelhante, um sistema de IA sem restrições claras de personalidade jurídica—mas que seja autorizado a tomar decisões em questões legais, religiosas ou financeiras—poderia tornar-se num aparato de decisão sem um locus de responsabilidade definido.
A Janela de Decisão Está a Fechar: Porque “Esperar para Ver” Perde o Controlo Garantido
O argumento central de Harari é de timing institucional: existe uma janela estreita para uma decisão deliberada sobre o papel legal e institucional da IA. Depois dessa janela fechar—por precedentes, implementação, captura regulatória ou mera inércia institucional—a decisão torna-se definitiva.
Esta abordagem trata a governação como um ponto de decisão de uma só geração, não um processo contínuo. Assume que quem agir primeiro para estabelecer normas e categorias legais efetivamente fixa os resultados por décadas. A validade dessa suposição depende em parte da trajetória tecnológica e em parte da vontade política, mas a lógica subjacente é sólida: as primeiras escolhas sobre personalidade jurídica tornam-se mais difíceis de reverter uma vez integradas em sistemas dos quais bilhões dependem.
A questão real não é se os sistemas de IA serão implementados—eles serão. É se o seu estatuto legal, autoridade de decisão e mecanismos de responsabilidade serão escolhidos deliberadamente por instituições democráticas ou determinados por padrão por quem agir mais rápido na implementação. Nesse enquadramento, tanto o alarme de Harari quanto a crítica de Bender apontam para a mesma conclusão: as instituições precisam de agir mais rápido, pensar com mais cuidado e decidir de forma mais deliberada se os “mercenários” que estamos a deployar permanecerão servos ou se tornarão mestres.