Estava especialmente curioso para perguntar ao @karpathy por que os carros autónomos levaram mais de uma década desde as demonstrações estelares até serem, mesmo que de forma limitada, implementados. Andrej liderou a IA na Tesla durante 5 anos. Queria realmente saber se essas fricções deveriam alongar os nossos prazos para a AGI, ou se eram idiossincráticas aos carros autónomos. Conduzir tem um custo de falha muito alto. Os humanos são motoristas surpreendentemente fiáveis - temos um acidente sério a cada 400.000 milhas/7 anos. E os carros autónomos precisam igualar ou superar este perfil de segurança antes de serem implementados. Mas a maioria dos domínios é assim? Antes da entrevista, parecia-me que quase todos os domínios em que gostaríamos de integrar a AGI têm um custo de falha muito mais baixo. Se engenheiros de software totalmente autónomos não pudessem cometer um erro durante 7 anos, a implementação seria de fato super lenta. Andrej fez um ponto interessante que eu não tinha ouvido antes: comparado à condução autónoma, a engenharia de software tem um custo de falha mais alto (e potencialmente ilimitado): > Se você está escrevendo código de produção real, qualquer tipo de erro pode levar a uma vulnerabilidade de segurança. Centenas de milhões de números de Segurança Social pessoais podem ser vazados. > Na condução autónoma, se as coisas correrem mal, você pode se ferir. Existem piores resultados. Mas em software, é quase ilimitado quão terrível algo pode ser. > De certa forma, a engenharia de software é um problema muito mais difícil [do que a condução autónoma]. A condução autónoma é apenas uma das milhares de coisas que as pessoas fazem. É quase como um único vertical. Enquanto quando falamos sobre engenharia de software geral, há mais área de superfície. Pode haver outra razão pela qual a transição de LLM -> AGI amplamente implementada pode acontecer muito mais rápido: os LLMs nos dão percepção, representações e senso comum (para lidar com exemplos fora da distribuição) de graça, enquanto que estes tiveram que ser moldados do zero para os carros autónomos. Perguntei ao Andrej sobre isso: > Não sei quanto estamos recebendo de graça. Os LLMs ainda são bastante falíveis e têm muitas lacunas que ainda precisam ser preenchidas. Não acho que estamos recebendo uma generalização mágica completamente pronta para uso. > O outro aspecto que eu queria voltar é que os carros autónomos ainda estão longe de estar prontos. As implementações são bastante mínimas. Mesmo a Waymo tem muito poucos carros. Eles construíram algo que vive no futuro. Eles tiveram que recuar no futuro, mas tiveram que torná-lo antieconômico. > Além disso, quando você olha para esses carros e não há ninguém dirigindo, há mais humano no loop do que você pode esperar. De certa forma, na verdade não removemos a pessoa, apenas a movemos para um lugar onde você não pode vê-la.