GPT-4 elabora anche le immagini

OpenAI lancia GPT-4, ultima release del mdello linguistico generativo utilizzato per animare il chatbot ChatGPT. I miglioramenti rispetto alla versione precedente, GPT-3.5, risultano evidenti, a partire dal fatto che questa volta la piattaforma è in grado di supportare input sotto forma di immagini o testi combinati con immagini per la generazione degli output (modello multimodale).

Per il momento le API (Application Programming Interface) di GPT-4 dedicate agli sviluppatori sono disponibili soltanto per coloro che si sono iscritti ad un'apposita lista di attesa. Il costo per token risulta essere inoltre più elevato anche per via del fatto che l'engine di base risulta molto più affidabile rispetto a quelli rilasciati fino ad ora dai responsabili del progetto.

GPT-4 è in grado ad esempio di proporre una ricetta a partire dall'immagine del contenuto di un frigorifero, ma è stato testato anche nella risoluzione di compiti ben più complessi come per esempio il superamento dell'esame di abilitazione alla carriera di avvocato. Migliorata anche la capacità di supportare lingue differenti dall'Inglese.

Per quanto siano stati fatti dei grandi passi avanti, GPT presenta ancora dei limiti che in alcuni casi lo porterebbero a generare delle "allucinazioni", cioè delle risposte del tutto inaspettate o palesemente inaffidabile. Questo perché il modello non è esente da bias cognitivi è il suo training non può prevedere tutti i possibili casi d'uso, compresi quelli malevoli.

GPT-4 è stato già integrato in ChatGPT ma potrà essere utilizzato unicamente da coloro che hanno aderito alla formula a pagamento ChatGPT Plus per 20 dollari al mese. I portavoce di OpenAI hanno sottolineato che le maggiori differenze tra GPT-4 e GPT-3.5 risultano evidenti nell'elaborazione di richieste complesse, meno nel caso di interazioni più semplici.