/ricerca/ansait/search.shtml?tag=
Mostra meno

Se hai scelto di non accettare i cookie di profilazione e tracciamento, puoi aderire all’abbonamento "Consentless" a un costo molto accessibile, oppure scegliere un altro abbonamento per accedere ad ANSA.it.

Ti invitiamo a leggere le Condizioni Generali di Servizio, la Cookie Policy e l'Informativa Privacy.

Puoi leggere tutti i titoli di ANSA.it
e 10 contenuti ogni 30 giorni
a €16,99/anno

  • Servizio equivalente a quello accessibile prestando il consenso ai cookie di profilazione pubblicitaria e tracciamento
  • Durata annuale (senza rinnovo automatico)
  • Un pop-up ti avvertirà che hai raggiunto i contenuti consentiti in 30 giorni (potrai continuare a vedere tutti i titoli del sito, ma per aprire altri contenuti dovrai attendere il successivo periodo di 30 giorni)
  • Pubblicità presente ma non profilata o gestibile mediante il pannello delle preferenze
  • Iscrizione alle Newsletter tematiche curate dalle redazioni ANSA.


Per accedere senza limiti a tutti i contenuti di ANSA.it

Scegli il piano di abbonamento più adatto alle tue esigenze.

E' arrivata Sora, dalla sceneggiatura al video. Ecco come funziona

E' arrivata Sora, dalla sceneggiatura al video. Ecco come funziona

24 febbraio 2024, 14:42

Redazione ANSA

ANSACheck

La Fabbrica della Realtà, la cover - RIPRODUZIONE RISERVATA

La Fabbrica della Realtà, la cover -     RIPRODUZIONE RISERVATA
La Fabbrica della Realtà, la cover - RIPRODUZIONE RISERVATA

OpenAI ha presentato Sora, il suo primo modello generativo Text-to-Video che trasforma istruzioni testuali in video fotorealistici.

Per il momento non è aperto al pubblico ma solo a un gruppo selezionato di esperti di sicurezza (che devono testarne l’affidabilità) e creator, ed è in grado di generare video fino a 60 secondi in qualità HD partendo da un semplice testo, esattamente come accade per le immagini con Dall-E 3 (sempre di OpenAI), Midjourney o Stable Diffusion.

 

 

 

Nel presentare Sora, OpenAI ha pubblicato diversi video d’esempio che mostrano di cosa sia capace il nuovo modello generativo. L’azienda non ha però rilasciato specifiche tecniche che descrivano più in dettaglio il funzionamento del modello, non ha dato accesso ai giornalisti per testarne le capacità e non ha specificato quando verrà aperto al pubblico.

 

Intanto, quello che è possibile comprendere analizzando le immagini rese pubbliche è che, sebbene non siano perfette, sembrano comunque un consistente passo in avanti rispetto agli altri modelli generativi text-to-video attualmente disponibili, come Runaway (giunto alla Gen2) o Pika.

 

Ne parliamo durante la settima puntata del podcast “La Fabbrica della Realtà”, con Massimo Sebastiani e Alessio Jacona, che potete ascoltare su Spreaker, Spotify, Apple Podcast o anche vedere su Youtube.

 

E poi anche su instagram, in questo video per Instagram realizzato da Alessio Jacona.

Riproduzione riservata © Copyright ANSA

Da non perdere

Condividi

O utilizza