“O plano de ação da IA dos Estados Unidos”, foi revelado pela Casa Branca em 23 de julho, o objetivo era quebrar os regulamentos e acelerar a inovação da inteligência artificial através da privatização da infraestrutura.
O que o plano faz é combinar inovação com controle e operar a IA do quadro como a tecnologia de vencer a IA como uma competição vencedora.
O presidente Donald Trump assinou três ordens executivas para que o governo federal aprova os data centers o mais rápido possível, promovendo a exportação de modelos de IA para a dominação americana e os sistemas federais de IA de apoio “idealmente neutros” e rejeitam “wokismo e teoria crítica da raça”.
Na página 24, o plano não menciona a “ética” e os sistemas de IA contra ataques de oposição são “responsabilidades” no contexto da proteção. A “criação de conjuntos de dados científicos de energia mundial” é a única parte do plano de ação que menciona claramente os direitos humanos: “Os Estados Unidos devem liderar o maior e mais alta qualidade de dados de dados de qualidade da IA ao manter os direitos humanos e garantir a liberdade cívica, a proteção da privacidade”. No entanto, não há entusiasmo por uso e implantação responsáveis sem medidas de segurança.
Por exemplo, esse plano prioriza a interpretação estreita da proteção nacional – a Lei da AI da União Europeia, em vez de atender às necessidades críticas, como a proteção da população fraca, crianças, indivíduos e minorias neurdoergentes.
Lacuna de prestação de contas
E o único consentimento para fornecer as informações erradas do plano foi criado como um problema de liberdade de expressão. Em vez de tentar abordá -lo, o plano sugere que suas referências devem ser excluídas: “Corrija a estrutura de gerenciamento de riscos da IA NIST para eliminar a menção de dados incorretos, diversidade, equidade e inclusão e mudanças climáticas”. Um balde sugere estabelecer desinformação, DI e mudanças climáticas que essa coisa muito diferente pode ser tratada da mesma maneira. Os efeitos desse princípio incluem pesquisa do Google, agora capaz de IA, podem censurar as referências a esses problemas.
Também existem lacunas significativas de responsabilidade no plano. Ao rejeitar o “controle rigoroso”, a administração fornece efetivamente aos sistemas opacos de IA da luz verde, a prioridade do controle e não da transparência. Não incentiva os processos para nos ajudar a entender os resultados produzidos pela IA, valor aplicável ou sistema de supervisão.
Por exemplo, quando os sistemas de IA são discriminatórios em recrutamento ou saúde, não há uma resposta clara para a pergunta como: Como isso aconteceu? Quem é responsável? E como podemos impedir isso no futuro?
O plano é contratado por empresas privadas, dependendo da auto-aplicação como uma alternativa à administração. Este sistema de destaque tem um amplo espelho de manual regulatório: “Um estilo regulatório de tiro leve” foi elogiado como a principal estratégia durante a audiência do Senado em 7 de maio, liderada pelo republicano Sen Ted Cruise.
Padrão duplo
Esse método de administração de dados também levanta sérias preocupações sobre a justiça. Embora seja chamado AI “Open-Ojan” e “Open Source”, os mecanismos de inovação, ordenou que os pesquisadores financiados federais publicassem “conjuntos de dados não sensíveis e não sensíveis” usados na pesquisa de IA. Ele cria um padrão duplo: pesquisadores e agências acadêmicos devem ser compartilhados em nome da transparência, enquanto as empresas privadas podem coletar conjuntos de dados pertencentes a seus crescentes data centers. O resultado é um ecossistema que a pesquisa pública fortalece o domínio dos gigantes da tecnologia e alimenta ganhos pessoais.
De fato, em vez de achatar o campo de jogo, o plano envolve o desequilíbrio no controle dos dados que entram, a propriedade, a ocupar a IA e o poder da IA.
Além disso, ignorar os direitos autorais, convida a raspagem para não verificar o trabalho criativo e científico, que cria um efeito de resfriamento nos dados que drenaram dados sem atribuição. Os pesquisadores podem se perguntar: por que você publica dados limpos e reutilizáveis quando treinamento gratuito é para empresas lucrativas como Meta ou OpenAI?
Durante suas observações iniciais no cume da IA da Casa Branca, Trump forneceu o argumento: “Você não pode esperar nenhum programa de IA bem -sucedido para cada artigo, livro ou estudo que você estudou ou estudou”.
No entanto, antes da recente onda do controle, as empresas de IA começaram a formar um contrato de licenciamento com os editores. Por exemplo, um contrato de dois anos com a Associated Press assinada em 2023 mostra que os editores podem licenciar arquivos de alta qualidade e verificados por fatos para treinamento e podem ser exibidos com atribuição apropriada em saídas expostas a A.
Sem dúvida, o plano pode ser um turbocharer da AI corporativo – mas talvez os Estados Unidos tenham trabalhado há muito tempo às custas dos valores democráticos. O documento posiciona a IA como uma ferramenta de interesse nacional e o motorista da divisão global. Embora os americanos queiram ganhar a nação da IA, o maior perigo é que eles possam vencê -lo em condições que reduzem os valores que são para a nação declarar por tanto tempo.
Mohammad Hosseini, PhD, professor assistente do Departamento de Prevenção de Medicina da Finberg School of Medicine da North Western University. © 2025 Chicago Tribune. Distribuído pela agência de conteúdo do Tribune.