Algumas opiniões tímidas e mornas sobre o futuro da política de IA: Até agora, a maioria das pessoas na área tem se concentrado em modelos - ou seja, no lado de P&D. Elas assumem implicitamente que a coisa perigosa/transformadora é o próprio modelo base, em vez de como ele é configurado, restringido e integrado em sistemas reais; assim, o modelo se torna o 'objeto' relevante de regulação ou supervisão. Isso pode ou não ser verdade, e estou feliz que haja bastante reflexão nesse sentido. Mas também é plausível que o que acaba importando tanto quanto é o sistema que aproveita o modelo através de estruturas, ferramentas, subagentes e mais - o que as pessoas geralmente se referem como o lado de 'implementação' das coisas. Esses sistemas/serviços parecerão muito diferentes dependendo dos usuários, mercados e setores relevantes. Isso pode significar algumas coisas diferentes: Primeiro, acho que as implementações importam muito mais do que é tipicamente sugerido. Isso foi um pouco internalizado em debates sobre viés, onde se tornou óbvio que você não pode fazer um modelo abordar simultaneamente todos os viés que se pode imaginar, e em vez disso, o melhor ponto de intervenção está na implementação, dadas as leis e contextos locais. A visão centrada no modelo às vezes incentiva um estilo de raciocínio que está divorciado do contexto institucional e específico do domínio onde os riscos realmente se materializam. Em segundo lugar, para vencer a China ou curar doenças ou alcançar altos níveis de crescimento, é inútil ter um modelo superpoderoso apenas parado no seu porão. Você realmente precisa da tecnologia implementada em toda a parte. E meu palpite é que isso será bastante difícil, pelas mesmas razões que muitas economias ocidentais lutam para construir qualquer coisa (habitação, energia, infraestrutura, tecnologia médica, finanças ao consumidor, etc). O 'lado da implementação' é prejudicado pelas muitas leis não-IA legadas que atrasarão a adoção útil. Considere como Londres ainda tem motoristas de metrô, apesar da "capacidade" ser automatizável. Se você quer que a AGI ajude as sociedades a prosperar, então precisará abordar muitos problemas de política que não se relacionam com a IA. Terceiro, se as implementações são o que mais importa, então a obsessão recente por modelos de IA 'soberanos' é provavelmente equivocada. A força econômica vem da implementação eficaz da IA em toda a sua economia, não de possuir um modelo base. Isso requer tanto a resolução das barreiras de implementação (como mencionado acima) quanto o uso pragmático dos melhores modelos disponíveis, independentemente da origem. De forma mais ampla, a mesma lógica se aplica além dos próprios modelos. Tentar trazer tudo localmente, seja através de política industrial ou protecionismo, ignora realidades econômicas básicas. A Bélgica se beneficia mais ao acessar milhões de livros do que ao possuir impressoras; da mesma forma, economias avançadas ganham mais com especialização inteligente e comércio com aliados do que com tentativas onerosas de autarquia. Mesmo que a IA seja uma tecnologia anormal, os fundamentos de como as economias organizam a produção complexa não mudaram. Se isso estiver certo, grande parte do trabalho de política à frente reside em reduzir a fricção da implementação, facilitar o comércio e construir capacidade setorial e institucional: sempre-foi-atronaut.gif!