Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

elie
> Project Suncatcher utforsker hvordan vi en dag kan bygge skalerbare ML-datasystemer i verdensrommet, og utnytte mer av solens kraft
Det ser ut til at interplanetarisk diloco ikke var en spøk tross alt 🚀

Sundar Pichai5. nov., 01:01
Våre TPU-er er på vei til verdensrommet!
Inspirert av vår historie med måneskudd, fra kvantedatabehandling til autonom kjøring, utforsker Project Suncatcher hvordan vi en dag kan bygge skalerbare ML-databehandlingssystemer i verdensrommet, og utnytte mer av solens kraft (som slipper ut mer kraft enn 100 billioner ganger menneskehetens totale elektrisitetsproduksjon).
Som ethvert måneskudd kommer det til å kreve at vi løser mange komplekse tekniske utfordringer. Tidlig forskning viser at våre Trillium-generasjons TPU-er (våre tensorbehandlingsenheter, spesialbygd for AI) overlevde uten skade når de ble testet i en partikkelakselerator for å simulere strålingsnivåer i lav jordbane. Imidlertid gjenstår fortsatt betydelige utfordringer som termisk styring og pålitelighet av systemet i bane.
Mer testing og gjennombrudd vil være nødvendig når vi teller ned for å skyte opp to prototypesatellitter med @planet tidlig i 2027, vår neste milepæl av mange. Spent på at vi skal være en del av all innovasjonen som skjer i (dette) rommet!

3,37K
> å bygge en ny grunnleggende modell er vanskeligere enn å finjustere en åpen modell og optimalisere slutningen.
Litt vilt, hvor underdiskutert det er at de fleste startups (selv de godt finansierte) ikke kan bygge sine egne grunnlagsmodeller og stole på at kinesiske laboratorier med åpen kildekode er deres.

Nick30. okt. 2025
the reason cursor and windsurf released models optimized for speed is because it's way more doable than building an intelligence-pushing foundational model
1. take qwen3 and fine tune it via RL on your harness
2. slap it on Cerebras (or optimized GPU) hardware
3. let that medium-smart, super-fast model cook
for coding agent companies, if you want to bring something of value to market, building a new foundational model is orders of magnitude harder than fine-tuning an open model and optimizing inference.
frankly, it's the efficient way to release something that approaches the pareto frontier and I like that coding agent companies are starting to participate.
but don't mistake this for coding agents companies declaring "medium smart but fast > highly smart but slow"
48,7K
Topp
Rangering
Favoritter


