OpenAI razkriva GPT-4.1: 8-krat več konteksta in nižji stroški

OpenAI je predstavil tri različice svojega vodilnega modela umetne inteligence: GPT-4.1, GPT-4.1 Mini in GPT-4.1 Nano. Vse različice podpirajo obdelavo do 1 milijona tokenov konteksta, ki vključuje besedilo, slike in video. To je osemkrat več kot GPT-4o, ki je obvladoval do 128.000 tokenov. Po podatkih OpenAI je GPT-4.1 boljši pri obravnavi dolgih pozivov, natančneje izvleče ključne informacije in filtrira nepomembne podrobnosti.
Posodobitev daje poseben poudarek izboljšavam pri generiranju kode in sledenju navodilom. Na primer, GPT-4.1 uspešno reši 54,6% nalog v benchmarku SWE-Bench, kar kaže na trdne napredke v programskih zmožnostih. Uporaba API-ja je zdaj tudi 26% cenejša kot pri GPT-4o — neposreden odgovor na naraščajočo konkurenco proračunskim alternativam, kot je DeepSeek.
GPT-4.1 in njegove lahke različice so na voljo izključno prek API-ja. Ne bodo se prikazovali v javni aplikaciji ChatGPT. Medtem je OpenAI začel postopno umikati starejše modele:
- GPT-4 ne bo več na voljo v ChatGPT od 30. aprila;
- Dostop do API-ja za GPT-4.5 se bo zaprlo 14. julija.
Po navedbah podjetja GPT-4.1 “ustreza ali presega svoje predhodnike po ključnih merilih, medtem ko je bolj stroškovno učinkovita”. Napoved prihaja, ker je izpustitev GPT-5 zamaknjena. Prvotno pričakovan v maju, je zdaj zamaknjen, pri čemer Sam Altman navaja izzive pri integraciji. Hkrati se pričakujejo novi modeli, osredotočeni na logiko, o3 in o4, ki bodo kmalu na voljo — zgodnje omembe so že bile opazovane v kodi ChatGPT.
-
OpenAI je odložil zagon GPT-4.5 zaradi pomanjkanja GPU.
-
OpenAI dokončuje oblikovanje AI čipa — proizvodnja se bo kmalu začela
-
OpenAI preizkuša integracijo ChatGPT z Google Drive in Slack
-
ChatGPT postane video režiser: OpenAI integrira Sora v klepetalnika
-
Novi model OpenAI GPT-4.5 se začenja naslednji teden, GPT-5 pa je načrtovan za pozno pomlad