Lors de sa première conférence des développeurs, OpenAI présenté GPT-4 Turboune version améliorée et personnalisée de son modèle phare d’IA de génération de texte, GPT-4, qui, selon la société, est « plus puissant » et moins cher.
GPT-4 Turbo est disponible en deux versions : celui qui analyse strictement le texte et une deuxième version qui inclut le contexte du texte et des images. Le modèle d’analyse de texte est disponible en avant-première via une API à partir d’aujourd’hui, et OpenAI annonce son intention de rendre les deux largement disponibles « dans les semaines à venir ».
Leur prix est de 0,01 € pour 1 000 jetons d’entrée (~ 750 mots), où les « jetons » représentent des morceaux de texte brut (par exemple, le mot « fantastique » divisé en « fan », « tas » et « tic ») et de 0,03 € pour 1 000 mots. jetons d’entrée (~ 750 mots). 1 000 jetons de sortie. (Les jetons d’entrée sont des jetons qui sont entrés dans le modèle, tandis que les jetons de sortie sont des jetons que le modèle génère en fonction des jetons d’entrée.) Le prix du traitement d’image GPT-4 Turbo dépendra de la taille de l’image. Par exemple, transmettre une image de 1 080 x 1 080 pixels à GPT-4 Turbo coûtera 0,00765 €, indique OpenAI.
GPT-4 Turbo présente plusieurs améliorations par rapport à GPT-4, dont une base de connaissances plus récente sur laquelle s’appuyer pour répondre aux demandes.
Comme tous les modèles linguistiques, GPT-4 Turbo est essentiellement un outil statistique de prédiction de mots. À l’aide d’un grand nombre d’exemples, principalement issus du Web, GPT-4 Turbo a appris la probabilité d’apparition de mots en fonction de modèles, y compris le contexte sémantique du texte environnant. Par exemple, étant donné un e-mail typique qui se termine par le fragment « En attente de… », GPT-4 Turbo pourrait le compléter par « … pour une réponse ».
GPT-4 Turbo dispose également d’une fenêtre contextuelle étendue offrant 128 000 jetons de contexte, soit quatre fois la taille de GPT-4 et la plus grande fenêtre contextuelle de tous les modèles disponibles dans le commerce, surpassant même Claude 2 d’Anthropic. (Claude 2 prend en charge jusqu’à 100 000 jetons ; Anthropic prétend expérimenter une fenêtre contextuelle de 200 000 jetons, mais ne l’a pas encore publiée.) En fait, 128 000 jetons se traduisent par environ 100 000 mots ou 300 pages, ce qui, à titre de référence, équivaut à peu près à la longueur de « Les Hauts de Hurlevent », « Les Voyages de Gulliver » et « Harry Potter et le prisonnier d’Azkaban ».
Et GPT-4 Turbo prend en charge un nouveau «Mode JSON«, qui garantit que le modèle répond avec un JSON valide – le format de fichier standard ouvert et le format d’échange de données. Ceci est utile dans les applications Web qui transmettent des données, telles que celles qui envoient des données d’un serveur à un client afin qu’elles puissent être affichées sur une page Web, explique OpenAI. D’autres nouveaux paramètres associés permettront aux développeurs de faire en sorte que le modèle renvoie des complétions « cohérentes » la plupart du temps et, pour des applications plus spécifiques, d’enregistrer les probabilités des jetons de sortie les plus probables générés par GPT-4 Turbo.
D’autre part, la société lance un programme d’accès expérimental pour affiner GPT-4. Contrairement au programme de réglage de GPT-3.5, le prédécesseur de GPT-4, le programme GPT-4 impliquera davantage de surveillance et de conseils de la part des équipes OpenAI, affirme la société, principalement en raison d’obstacles techniques.
Enfin, OpenAI a annoncé qu’elle doublerait la limite de débit de jetons par minute pour tous les clients payants GPT-4. Mais le prix restera le même : 0,03 € par jeton d’entrée et 0,06 € par jeton de sortie (pour le modèle GPT-4 avec une fenêtre contextuelle de 8 000 jetons) ou 0,06 € par jeton d’entrée et 0,012 € par jeton de sortie (pour le modèle GPT-4 avec une fenêtre contextuelle de 8 000 jetons). fenêtre de 32 000 jetons).
Via – TechCrunch