Är du intresserad av dem ERBJUDANDEN? Spara med våra kuponger på WhatsApp o TELEGRAM!

OpenAI skapar ett team för AI "katastrofala" risker. Det är därför det bekymrar oss

OpenAI, ett företag som nu ligger i framkant inom området artificiell intelligens, nyligen meddelade skapandet av ett nytt team med den specifika uppgiften att utvärdera och minska potentiellt katastrofala risker förknippade med avancerad AI-relaterad teknik. Detta drag belyser den växande betydelsen av att proaktivt ta itu med de utmaningar och faror som generativa modeller kan medföra. Uppenbarligen, där de inte övervakas ordentligt.

Riskidentifiering av OpenAI

När artificiell intelligens utvecklas snabbt uppstår nya risker som kan få allvarliga konsekvenser på en global skala. För detta kommer det nya OpenAI-förberedelseteamet att ägna sig åt att spåra, utvärdera, förutse e proteggere mot dessa potentiella problem. Bland de risker som identifierats är: hot kärn, ett tema som lyfter fram det brådskande av ansvarsfulla åtgärder inom AI-området.

Utöver kärnvapenhot kommer teamet också att fokusera på substansrelaterade faror kemiska, biologiska och radiologiska, samt på ffenomenet självreplikering av artificiell intelligens, eller förmågan hos ett artificiellt intelligenssystem att replikera sig självt. Andra fokusområden inkluderar AI:s förmåga att lura människor och hot Alla Cybersäkerhet.

Fördelar och utmaningar med avancerad AI

OpenAI inser att frontier AI-modeller, de som överträffar kapaciteten hos de mest avancerade befintliga modellerna, har potential att gynna hela mänskligheten. Och nej, i motsats till vad du trorArtificiell intelligens är inte här för att stjäla våra jobb utan snarare att skapa den.

Men med stor makt kommer också stort ansvar. Det är därför viktigt att utvecklas politik informeras om de risker som gör att du kan utvärdera och övervaka AI-modeller, för att säkerställa att fördelarna överväger riskerna.

openai erbjuder belöningar för att hitta buggar i chatgpt

Läs också: DeepMind har lösningen för att förhindra AI-risker

Ledningen för detta nya team har anförtrotts Alexander Madry, en ledande figur inom området maskininlärning. För närvarande tjänstledig från hans rollen som direktör för MIT:s Center for Deployable Machine Learning, Klok ska samordna insatserna för att utveckla och upprätthålla en riskinformerad utvecklingspolitik.

Mot en global prioritering

VD för OpenAI, Sam Altman, det är inte nytt till oro för de potentiellt katastrofala riskerna med AI. Han föreslog att behandlingen av AI-teknik skulle vara sidtas lika allvarligt som kärnvapen, som lyfter fram behovet av en kollektiv ansträngning för att mildra utrotningsriskerna förknippade med AI. Detta nya team representerar ett konkret steg mot att förverkliga denna vision, och lyfter fram OpenAI:s engagemang för att bidra till en ansvarsfull förvaltning av artificiell intelligens.

Gianluca Cobucci
Gianluca Cobucci

Brinner för kod, språk och språk, människa-maskin-gränssnitt. Allt som är teknisk utveckling är av intresse för mig. Jag försöker avslöja min passion med största klarhet och förlitar mig på tillförlitliga källor och inte "vid first pass".

Prenumerera
Meddela
gäst

0 Kommentarer
Inline feedbacks
Visa alla kommentarer
XiaomiToday.it
Logotyp