Il treno AI è bello che partito e con multipli che non m hanno mai convinto. Però che cosa dovrà essere prodotto in grande quantità sia che OpenAI sopravviva sia che fallisca? Questa puntata mi è partita guardando dei benchmark tra cluster di Mac mini e cluster di GPU. Per via della memoria unificata i Mac mini avevano delle performance, per alcuni task, uguali o migliori delle GPU. Non per la potenza di calcolo ma per via il bottleneck ridotto nello spostare informazioni tra le varie memorie, dato che appunto hanno un blocco di memoria unico per tutto. E quindi nasce la curiosità del Cabana verso le memorie, quali sono i tre player maggiori e dove verranno installate oltre che nei datacenter?
Published on 5 days, 15 hours ago
If you like Podbriefly.com, please consider donating to support the ongoing development.
Donate