Är du intresserad av dem ERBJUDANDEN? Spara med våra kuponger på WhatsApp o TELEGRAM!

Hur språklig AI utvecklades och hur vi kom fram till ChatGPT

Intelligensen artificiell idag är det på allas läppar. Vid det här laget vet vi hur man använder det: bara tillgång till internet och använd plattformar som ChatGPT, Dall-E och Synthesia. I detta avseende förbereder vi en intressant artikel om 10 webbplatser som använder artificiell intelligens för att göra väldigt olika saker. Men med det sagt, låt oss ta exemplet med den mest använda AI. Hur föddes den? hur vi kom fram till den version som vi alla kan använda idag gratis?

Idag använder många av oss ChatGPT men inte alla vet vad som ligger bakom och hur vi kom dit. Här är en tidslinje från 80-talet till idag

Låt oss börja från 80-talet: Återkommande neurala nätverk

ChatGPT är en version av GPT-3, en mycket stor språkmodell utvecklad av OpenAI. Språkmodeller är en typ av neuralt nätverk som har tränats på väldigt många texter. Neurala nätverk är programvara inspirerad av hur neuroner i mänskliga hjärnor kommunicerar med varandra. Eftersom vilken text som helst är sammansatt av sekvenser av bokstäver och ord av varierande längd, kräver språkmodeller en typ av neurala nätverk som kan förstå denna typ av data. De återkommande neurala nätverken (Återkommande neurala nätverk) uppfanns på 80-talet, kan hantera sekvenser av ord, men är långsamma att träna och kan glömma tidigare inlärda ord i en sekvens. LSTM:er kunde hantera textsträngar på flera hundra ord, men deras språkliga kapacitet var begränsad. Vad är? Förkortning för "Långt korttidsminne"Eller"långtids minne” är ett artificiellt neuralt nätverk som används inom artificiell intelligens 

chatgpt ai bot artificiell intelligens

Läs också: Google bekräftar kompatibiliteten för innehåll som genereras av Chatbot och AI

2017: året för artificiell intelligenss genombrott med Transformers

Genombrottet som har lett till den nuvarande generationen av stora språkmodeller kom när ett team av forskare på Google uppfann Transformatorer, en typ av neurala nätverk som kan hålla reda på var varje ord eller fras förekommer i en sekvens. Du kommer själv att förstå att det största problemet med LSTM är övervunnet. Men hur gjorde de det? Begreppet tillämpad lingvistik kommer in i tekniken. Betydelsen av ett ord beror ofta på betydelsen av andra ord som föregår eller följer det. Håller koll på dessa kontextuell information, Transformers kan hantera längre textsträngar och fånga ordens betydelse mer exakt. Till exempel har "korv" en helt annan betydelse i meningarna "Jag föredrar hamburgare framför varmkorv"Och"Varmkorv äts bäst med senap". I huvudsak har kontextuell information, vilket är vad människor förstår och maskiner inte gör det möjligt att göra skillnad.

2018-2019: åren av GPT-utveckling

OpenAI:s första två stora språkmodeller anlände inom några månader efter varandra. Företaget ville utveckla multipurpose och generell AI och anser att stora språkmodeller är ett viktigt steg mot detta mål. På detta sätt kan programvaran upptäcka mönster i datan självutan att få veta vad de tittar på eller läser. Många tidigare framgångar inom maskininlärning har förlitat sig på övervakad inlärning och kommenterad data, men manuell datamärkning är långsamt arbete som begränsar storleken på datauppsättningar som är tillgängliga för utbildning. Det var GPT-2 för att skapa den största uppståndelsen. Faktum är att OpenAI sa att det var så oroligt att folk skulle kunna använda GPT-2"att generera vilseledande, förvrängt eller kränkande språk” som inte skulle släppa hela modellen. Men det är inte allt.

Om GPT-2 var imponerande så har uppföljaren till OpenAI, GPT-3, bokstavligen gjort revolutionen. Dess förmåga att skapa människoliknande texter representerade ett stort steg framåt. GPT-3 kan svara på frågor, sammanfatta dokument, generera berättelser i olika stilar, översätta mellan engelska, franska, spanska och japanska och mycket mer. Men den kan fortfarande inte ersätta en människa eftersom den saknar mänsklighetens grundläggande egenskaper. Vi pratade om det på djupet den här artikeln.

Källa | MIT

Gianluca Cobucci
Gianluca Cobucci

Brinner för kod, språk och språk, människa-maskin-gränssnitt. Allt som är teknisk utveckling är av intresse för mig. Jag försöker avslöja min passion med största klarhet och förlitar mig på tillförlitliga källor och inte "vid first pass".

Prenumerera
Meddela
gäst

0 Kommentarer
Inline feedbacks
Visa alla kommentarer
XiaomiToday.it
Logotyp