Meta presenta Tiramisu VR è l’annuncio che ha acceso i riflettori sulla settimana SIGGRAPH: un prototipo pensato per spingere la qualità visiva della realtà virtuale oltre i limiti conosciuti. Meta presenta Tiramisu VR non è solo un nome di laboratorio: rappresenta la sfida a ciò che definiamo “realistico” in VR la cosiddetta Visual Turing Test e appare insieme a un secondo prototipo, il Boba 3, che punta a risolvere invece il problema della visione periferica. Meta presenta Tiramisu VR.

Meta Reality Labs ha portato a SIGGRAPH 2025 a Vancouver tre prototipi di display e headset, tra cui Tiramisu (iperrealistico), Boba 3 (ultra-wide FOV) e vari esperimenti di ottica e rendering. Tiramisu mette sul tavolo numeri impressionanti: una risoluzione angolare dichiarata di 90 pixels per grado (PPD), una luminosità di picco attorno ai 1.400 nit e un contrasto stimato 3× rispetto al Quest 3 a fronte però di un campo visivo molto ridotto (circa 33°×33°). Queste cifre e le dimostrazioni pratiche sono state descritte sia dal blog ufficiale di Meta sia dalla stampa specializzata presente a SIGGRAPH.
Allo stesso evento Meta ha mostrato Boba 3, progettato dal team DSR per offrire un campo visivo ultra-ampio (fino a 180° orizzontali × 120° verticali) e risoluzioni estremamente elevate (4K×4K per occhio nei prototipi mostrati). Boba 3 adotta una strategia opposta a quella di Tiramisu: capacità di coprire la visione periferica a costo di sfide su rendering e potenza. Anche questo prototipo è stato documentato dalle testate e dai hands-on dei giornalisti.
Di seguito trovate un’analisi giornalistica, tecnica e pragmatica: cos’è Tiramisu, perché conta, quali limiti porta con sé, che rapporto ha con Boba 3 e soprattutto cosa significano queste ricerche per il futuro dei visori consumer.
Visione d’insieme: perché Tiramisu è importante
Tiramisu non è pensato per il mercato: è un banco di prova per verificare quanto la tecnologia possa avvicinarsi all’immagine reale. Il criterio non è la comodità o il prezzo, ma la fedeltà visiva pura: resa dei dettagli, gestione della luminosità in scene ad alto contrasto, e densità di pixel sufficiente a cancellare gli artefatti riconoscibili. Superare il Visual Turing Test significa che almeno per una porzione del campo visivo il cervello accetta quello che vede come plausibile. Meta ha descritto apertamente questo obiettivo nel suo comunicato sulla demo.
Che cos’è Tiramisu e da dove viene
Tiramisu nasce nei laboratori OPALS (Optics, Photonics and Light Systems) di Reality Labs. Il progetto combina micro-OLED ad altissima densità, lenti custom e sistemi ottici che massimizzano la nitidezza su un’area strettissima del campo visivo. Il risultato è un “occhio virtuale” che vede più pixel e più luce rispetto ai visori consumer attuali. Ma il disegno sperimentale è chiaro: la qualità viene privilegiata a scapito di altri parametri come il FOV o il comfort.
Tiramisu: numeri che impressionano (PPD, nit, contrasto)
Gli indicatori più citati sono:
- 90 PPD (pixels per degree): una densità angolare che, nei test, porta i dettagli a livelli paragonabili alla vista naturale in una piccola porzione di campo.
- 1.400 nit di picco: una luminosità massima che permette di riprodurre luci intense senza clipping.
- 3× contrasto rispetto a Quest 3: significa neri più profondi e bianchi più brillanti nello stesso frame.
Questi numeri sono il nucleo dell’argomentazione di Meta: la strada per il realismo passa da densità, rapporto di contrasto e controllo della luce. Va però sottolineato che tali prestazioni sono ottenute su una finestra visiva piccola: 33°×33°, sufficiente per il foveal rendering (dove il cervello è più sensibile), ma lontana dall’esperienza totale della vista umana.
Boba 3: l’opposto della perfezione localizzata
Se Tiramisu è una lente di ingrandimento sull’immagine “perfetta”, Boba 3 mette tutto il paesaggio in vista. Con un FOV orizzontale di 180° e verticale di 120° e risoluzioni per occhio che arrivano a 4K×4K nei prototipi, Boba 3 cerca di ricostruire la visione periferica il fattore che oggi limita l’immersione più della risoluzione centrale. Renderizzare tutto questo richiede però GPU potenti e tecniche d’upscaling (come DLSS) per ottenere frame rate giocabili.
Il Visual Turing Test: obiettivo e limiti
Chiamarlo “Turing” è suggestivo: il test visivo porsi come obiettivo quello di rendere l’output indistinguibile da una scena reale. Ma il percorso ha ostacoli profondi:
- campo visivo limitato vs copertura completa;
- latenza di sistema e sincronia occhio-testa;
- ergonomia e peso;
- costi energetici e dissipazione termica;
- produzione di contenuti ad alta fedeltà.
In pratica, superare il Visual Turing Test su una finestra di 33° non è la stessa cosa che superarlo su 180°: la generalizzazione rimane la vera sfida. Meta lo sa e per questo mostra più prototipi con strategie diverse.
Display e ottiche: come si arriva a 90 PPD
Per raggiungere 90 PPD Meta ha usato micro-OLED con pixel molto densi e sistemi ottici che ingrandiscono l’immagine sul piano retinico. La combinazione di display ad altissima risoluzione + lenti che minimizzano aberrazioni porta la definizione per grado a valori inediti. Tuttavia, ingrandire significa anche restringere il campo visivo utile: è un compromesso ottico-geometrico noto. L’altra strada — adottata da Boba 3 è aumentare il numero totale di pixel e la copertura, ma ciò impone requisiti di rendering proibitivi per hardware consumer.
Campo visivo e immersione: perché conta il perimetro visivo
La sensazione di “essere lì” non dipende solo dalla nitidezza centrale. Il campo visivo è cruciale perché il cervello integra informazioni periferiche per movimento, occlusione e consapevolezza spaziale. Un piccolo “tunnel” di altissima fedeltà può ingannare temporaneamente la retina centrale, ma appena si sposta lo sguardo o il corpo la discrepanza con la periferia rompe l’illusione. Da qui la ragione per cui Boba 3 affronta il problema da un’altra angolazione.
Prestazioni e requisiti: la necessità di GPU potenti
Renderizzare 4K×4K per occhio o fornire texture con dettagli sufficienti per 90 PPD comporta un carico enorme. Le demo di Boba 3 e Tiramisu usano workstation con GPU di fascia altissima e tecniche di upscaling (es. DLSS o soluzioni analoghe). Per tradurre queste demo in prodotti consumer servirebbero progressi significativi in efficienza di rendering, compressione delle texture, e accelerazione hardware dedicata (NPU, ASIC per foveated rendering). Le testate che hanno provato i prototipi lo sottolineano: la praticabilità commerciale è tutt’altro che immediata.
Esperienza d’uso: comfort, peso e fattibilità quotidiana
I prototipi pesano e ingombrano più dei visori consumer: Tiramisu è voluminoso per ospitare ottiche e dissipazione, mentre Boba punta a essere più pratico ma richiede comunque un tethering o un PC potente. L’esperienza d’uso nel demo può essere elettrizzante per qualche minuto, ma portare questo livello di qualità in sessioni di ore richiede soluzioni su peso, comfort e gestione termica. Anche il campo visivo ridotto di Tiramisu impone un cambio di abitudini: la “finestra perfetta” non riproduce l’esperienza naturale di esplorare lo spazio con gli occhi.
Impatto sul mercato: consumer vs ricerca
Quello che Meta mostra a SIGGRAPH è ricerca avanzata, non roadmap commerciale immediata. I prototipi sono strumenti per esplorare trade-off e spingere industrie partner (display, lenti, silicon) verso soluzioni che, nel tempo, possano essere integrate in prodotti mainstream come un ipotetico Quest 4 o altri form factor. Le spinte rilevanti sono due: aumentare PPD mantenendo FOV accettabile, oppure offrire FOV ultra-ampio con dotazioni grafiche efficienti. Ogni strada ha implicazioni economiche e di design diverse.
Tabelle tecniche: confronto rapido
| Caratteristica | Tiramisu (prot.) | Boba 3 (prot.) | Meta Quest 3 (riferimento) |
|---|---|---|---|
| Pixels per degree (PPD) | 90 PPD | ~30 PPD (stima con 4K×4K) | ~25–26 PPD |
| Brightness (nit) | 1.400 nit (picco) | non dichiarato (molto elevato) | ~100 nit (ordine di grandezza) |
| Contrast vs Quest 3 | ~3× | n/a | baseline |
| Field of View | 33°×33° | 180°×120° | ~110° horiz × 96° vert |
| Resolution per eye | Foveal ultra-high (micro-OLED) | 4K×4K per occhio (prot.) | ~ 2064×2208 (per occhio, Quest 3 varia) |
| Uso previsto | Ricerca Visual Turing | Ricerca immersione wide FOV | Prodotto consumer |
Tabella — requisiti e raccomandazioni di rendering (prototipi)
| Scenario | GPU consigliata | Tecnica di supporto |
|---|---|---|
| Tiramisu (foveal ultra-high) | GPU workstation top (NVIDIA RTX seri 50xx) | Foveated rendering, pre-filtering |
| Boba 3 (4K×4K per occhio) | GPU extreme (RTX 5090 o sim.) | DLSS / upscaling + foveated |
| Uso consumer target | GPU mobile per standalone | ASIC/NPU dedicati per upscaling e rasterizzazion |
Quali sono le questioni etiche e pratiche
Oltre alla fattibilità tecnica ci sono questioni più ampie: la democratizzazione dell’accesso a VR iperrealistica (costo), la sicurezza percettiva (adattamento sensoriale e motion sickness), la produzione di contenuti “verosimili” e il rischio di deepfake visivi o manipolazioni. Inoltre, la dipendenza da hardware estremo pone interrogativi su sostenibilità e obsolescenza. I ricercatori di Meta discutono apertamente di questi temi: la ricerca non è solo resa, ma responsabilità.
Cosa può diventare il Quest 4 (e oltre)
Non è detto che Tiramisu o Boba 3 diventino prodotti a scaffale. Più probabile è che le tecnologie testate micro-OLED più efficienti, nuovi design ottici, pipeline di rendering foveato e upscaling più sofisticati — finiscano in parte o in tutto in prodotti futuri (es. Quest 4/5 o visori PC tethered con feature avanzate). L’industria segue percorsi simili: la ricerca sposta i limiti, l’ingegneria industrializza le parti più pratiche.
Conclusioni: tra sogno e realtà
Meta presenta Tiramisu VR come simbolo di una ricerca che punta al confine tra reale e digitale. È un passo audace: mostrare ciò che è possibile se non si pongono limiti di costo o comfort. Accanto, Boba 3 ci ricorda che l’immersione totale richiede più che fotorealismo centrale: richiede copertura e performance. Per il consumatore la strada è ancora lunga, ma per il settore la direzione è chiarissima: lavorare su più fronti contemporaneamente — densità pixel, FOV, efficienza di rendering — per portare la VR da nicchia ad esperienza quotidiana.
Fonti principali e hands-on
Le informazioni tecniche e le osservazioni provengono dal blog ufficiale di Meta Reality Labs e da reportage di testate specializzate presenti a SIGGRAPH 2025 (UploadVR, PC Gamer, TechRadar, Android Central). Per approfondire, i lettori possono consultare i pezzi hands-on e il post ufficiale di Meta.
Nota obbligatoria finale
‘In qualità di affiliati Amazon, riceviamo un guadagno dagli acquisti idonei effettuati tramite i link presenti sul nostro sito.’