Efter att ha testat förekomsten av en ChatGPT-baserad sökmotor, här är något nytt från OpenAI. Den här gången officiellt sora debuterar som den nya OpenAI-produkten som generera videor från text. Modellen, så kallad text-to-video, banar också väg för innovativa lösningar för kreativa proffs och forskare och inte bara för användare som kommer att kunna använda dem i framtiden.
Sora av OpenAI: där fantasi och verklighet möts
Denna text-videomall är designad för att skapa videoscener upp till en minut långa som håller hög visuell kvalitet och är trogna användarindikationer. Det som gör Sora särskilt övertygande är hans förmåga att generera komplexa scenarier med flera karaktärer, specifika rörelsemönster och exakta detaljer om ämnen och bakgrunder, vilket visar en djup förståelse för verklighetens språk och fysisk dynamik.
Trots innovativiteten är Sora inte utan utmaningar, som svårigheter att korrekt simulera fysiken i komplexa scener eller hantera exakta rumsliga detaljer.
Implementeringen av Sora i OpenAI-verktyg kommer också att bygga på säkerhetsmetoder som redan utvecklats för produkter som t.ex DALL E 3, se till att innehållet som genereras följer strikta policyer. Dessutom drar modellen nytta av inlärningstekniker som härrör från forskning om DALL·E e GPT språkmodeller, som t.ex. repetitionstekniken, som låter dig troget följa textinstruktionerna i videoutgången.
Soras förmåga att generera videor från textinstruktioner eller utöka befintliga videor öppnar nya perspektiv för innehållsskapande. Denna modell stöder inte bara det kreativa samhället, utan lägger grunden för framtida utvecklingar inom artificiell intelligens, vilket för oss närmare måletallmän artificiell intelligens (AGI).
OpenAI har ännu inte meddelat när Free-, Plus- eller Enterprise-användare kommer att kunna använda Sora. Modellen är för närvarande under utveckling även om de första resultaten redan är synliga på OpenAI officiella webbplats.