Trend-Themen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

prinz
Fürchte dich nicht vor der Größe
Sholto Douglas (Anthropic):
"Im letzten Jahr hat uns RL endlich ermöglicht, eine Feedback-Schleife zu nehmen und sie in ein Modell zu verwandeln, das zumindest so gut ist wie die besten Menschen in einem bestimmten Bereich in einem engen Bereich. Und das sieht man bei Mathematik und Wettbewerbscode, die die beiden Bereiche sind, die am meisten dafür geeignet sind - wo die Modelle schnell unglaublich kompetente Wettbewerbsmathematiker und Wettbewerbscode-Programmierer werden.
Es gibt nichts intrinsisch anderes an Wettbewerbscode und Mathematik. Es ist nur so, dass sie wirklich [mehr] für RL geeignet sind als jeder andere Bereich. Aber wichtig ist, dass sie zeigen, dass es keine intellektuelle Obergrenze für die Modelle gibt. Sie sind in der Lage, wirklich schwierige Schlussfolgerungen zu ziehen, wenn sie die richtige Feedback-Schleife haben. Daher denken wir, dass derselbe Ansatz auf praktisch alle anderen Bereiche menschlichen intellektuellen Schaffens verallgemeinert werden kann, wo diese Modelle, wenn sie die richtige Feedback-Schleife haben, mindestens so gut werden wie die besten Menschen in einem bestimmten Bereich. Und sobald man etwas hat, das mindestens so gut ist wie die besten Menschen in einem Bereich, kann man einfach 1.000 von ihnen parallel laufen lassen oder 100x schneller und man hat etwas, das mit dieser Bedingung allein erheblich intelligenter ist als jeder Mensch. Und das wirft völlig beiseite, ob es möglich ist, etwas zu schaffen, das intelligenter ist als ein Mensch.
Die Implikationen davon sind ziemlich überwältigend, oder? In den nächsten 2 oder 3 Jahren, gegeben die richtigen Feedback-Schleifen, die richtige Rechenleistung usw., denken wir, dass wir als KI-Industrie insgesamt auf dem besten Weg sind, etwas zu schaffen, das mindestens so fähig ist wie die meisten Menschen bei den meisten computerbezogenen Aufgaben, möglicherweise so gut wie viele unserer besten Wissenschaftler in ihren Fachgebieten. Es wird scharf und spitz sein, es wird Beispiele für Dinge geben, die es nicht [tun] kann. Aber die Welt wird sich verändern.
... Ich denke, das ist es wert, ein bisschen von den Dächern zu schreien - Leute, alles, was wir messen können, scheint sich wirklich schnell zu verbessern. Wo bringt uns das in 2 oder 3 Jahren? Ich kann es nicht mit Sicherheit sagen. Aber ich denke, es ist es wert, in Weltanschauungen einzubauen, dass es eine ziemlich ernsthafte Chance gibt, dass wir AGI bekommen."
74,66K
Wahrscheinlich die überraschendste Entwicklung im Bereich KI für mich in den letzten 6 Monaten ist, dass GPT-5 Pro und sogar GPT-5 Thinking sehr kleine neuartige wissenschaftliche Entdeckungen machen können.
Zur Erinnerung: Dies sind Modelle, die weniger als 40 Minuten denken und nicht annähernd so fortgeschritten sind wie die unveröffentlichten multi-agentischen Modelle von OpenAI (von denen wir wissen, dass sie autonom über Stunden arbeiten können).
Es ist ziemlich leicht zu erkennen, warum OpenAI beschlossen hat, die Initiative "OpenAI for Science" jetzt zu starten, vermutlich nur wenige Wochen bevor das Modell, das Gold bei der IMO, IOI und der ICPC gewonnen hat, der Öffentlichkeit zur Verfügung steht. Spannende Zeiten!

Sam Altman1. Okt., 10:41
es fühlt sich wirklich so an, als würde das anfangen zu passieren (in kleinen Weisen)
136,54K
Top
Ranking
Favoriten