Estava especialmente curioso para @karpathy perguntar por que os carros autônomos levaram uma década + de passeios de demonstração estelares para até mesmo um pouco implantados. Andrej liderou a IA na Tesla por 5 anos. Eu realmente queria saber se esses atritos deveriam alongar nossos cronogramas de AGI ou se eram idiossincráticos para a direção autônoma. Dirigir tem um custo de falha muito alto. Os humanos são motoristas surpreendentemente confiáveis - temos um acidente grave a cada 400.000 milhas / 7 anos. E os carros autônomos precisam igualar ou superar esse perfil de segurança antes de serem implantados. Mas a maioria dos domínios é assim? Antes da entrevista, parecia-me que quase todos os domínios aos quais gostaríamos de conectar a AGI têm um custo de falha muito menor. Se os engenheiros de software totalmente autônomos não pudessem cometer um erro por 7 anos, a implantação seria realmente super lenta. Andrej fez um ponto interessante que eu não tinha ouvido antes: em comparação com a direção autônoma, a engenharia de software tem um custo de falha mais alto (e potencialmente ilimitado): > Se você estiver escrevendo código de nível de produção real, qualquer tipo de erro pode levar a uma vulnerabilidade de segurança. Centenas de milhões de números pessoais do Seguro Social de pessoas podem vazar. > Na direção autônoma, se as coisas derem errado, você pode se machucar. Existem resultados piores. Mas em software, é quase ilimitado o quão terrível algo pode ser. > De certa forma, a engenharia de software é um problema muito mais difícil [do que a direção autônoma]. A direção autônoma é apenas uma das milhares de coisas que as pessoas fazem. É quase como uma única vertical. Considerando que, quando estamos falando de engenharia de software geral, há mais área de superfície. Há potencialmente outra razão pela qual a transição da AGI LLM -> amplamente implantada pode acontecer muito mais rápido: os LLMs nos dão percepção, representações e bom senso (para lidar com exemplos fora de distribuição) gratuitamente, enquanto estes tiveram que ser moldados do zero para carros autônomos. Perguntei a Andrej sobre isso: > não sei quanto estamos recebendo de graça. Os LLMs ainda são bastante falíveis e têm muitas lacunas que ainda precisam ser preenchidas. Não acho que estamos obtendo uma generalização mágica completamente fora da caixa. > O outro aspecto ao qual eu queria voltar é que os carros autônomos ainda não estão nem perto de terminar. As implantações são mínimas. Até a Waymo tem muito poucos carros. Eles construíram algo que vive no futuro. Eles tiveram que recuar o futuro, mas tiveram que torná-lo antieconômico. > Além disso, quando você olha para esses carros e não há ninguém dirigindo, há mais humanos no circuito do que você poderia esperar. Em certo sentido, não removemos a pessoa, nós a movemos para algum lugar onde você não pode vê-la.