Tópicos populares
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Estava especialmente curioso para perguntar ao @karpathy por que os carros autónomos levaram mais de uma década desde as demonstrações estelares até serem, mesmo que de forma limitada, implementados. Andrej liderou a IA na Tesla durante 5 anos.
Queria realmente saber se essas fricções deveriam alongar os nossos prazos para a AGI, ou se eram idiossincráticas aos carros autónomos.
Conduzir tem um custo de falha muito alto. Os humanos são motoristas surpreendentemente fiáveis - temos um acidente sério a cada 400.000 milhas/7 anos. E os carros autónomos precisam igualar ou superar este perfil de segurança antes de serem implementados.
Mas a maioria dos domínios é assim? Antes da entrevista, parecia-me que quase todos os domínios em que gostaríamos de integrar a AGI têm um custo de falha muito mais baixo. Se engenheiros de software totalmente autónomos não pudessem cometer um erro durante 7 anos, a implementação seria de fato super lenta.
Andrej fez um ponto interessante que eu não tinha ouvido antes: comparado à condução autónoma, a engenharia de software tem um custo de falha mais alto (e potencialmente ilimitado):
> Se você está escrevendo código de produção real, qualquer tipo de erro pode levar a uma vulnerabilidade de segurança. Centenas de milhões de números de Segurança Social pessoais podem ser vazados.
> Na condução autónoma, se as coisas correrem mal, você pode se ferir. Existem piores resultados. Mas em software, é quase ilimitado quão terrível algo pode ser.
> De certa forma, a engenharia de software é um problema muito mais difícil [do que a condução autónoma]. A condução autónoma é apenas uma das milhares de coisas que as pessoas fazem. É quase como um único vertical. Enquanto quando falamos sobre engenharia de software geral, há mais área de superfície.
Pode haver outra razão pela qual a transição de LLM -> AGI amplamente implementada pode acontecer muito mais rápido: os LLMs nos dão percepção, representações e senso comum (para lidar com exemplos fora da distribuição) de graça, enquanto que estes tiveram que ser moldados do zero para os carros autónomos. Perguntei ao Andrej sobre isso:
> Não sei quanto estamos recebendo de graça. Os LLMs ainda são bastante falíveis e têm muitas lacunas que ainda precisam ser preenchidas. Não acho que estamos recebendo uma generalização mágica completamente pronta para uso.
> O outro aspecto que eu queria voltar é que os carros autónomos ainda estão longe de estar prontos. As implementações são bastante mínimas. Mesmo a Waymo tem muito poucos carros. Eles construíram algo que vive no futuro. Eles tiveram que recuar no futuro, mas tiveram que torná-lo antieconômico.
> Além disso, quando você olha para esses carros e não há ninguém dirigindo, há mais humano no loop do que você pode esperar. De certa forma, na verdade não removemos a pessoa, apenas a movemos para um lugar onde você não pode vê-la.
Top
Classificação
Favoritos

