Le monde explore les possibilités de l’intelligence artificielle (IA) depuis les années 1950, période au cours de laquelle le mathématicien Alan Turing a jeté les bases de cette discipline avec son article « Computing Machinery and Intelligence ». Cependant, en sept décennies de développement, le sentiment que l’IA progresse à pas de géant n’a jamais été aussi présent.
L’ère de l’IA, du nom de personnalités telles que Bill Gates , a commencé à devenir évidente en novembre 2022, lorsque la startup OpenAI a mis ChatGPT à la disposition du public . Depuis lors, et pour la première fois gratuitement et massivement, le monde a eu accès aux avantages d’un grand modèle de langage sous une interface utilisateur conviviale. Et le monde était fasciné.
Cet événement très important qui nous a permis de « converser » en langage naturel avec un modèle d’IA capable de comprendre le contexte et de fournir des réponses aussi bien simples que complexes n’était qu’une première étape de ce qui allait suivre. ChatGPT était basé sur GPT-3.5 (et sa version gratuite l’est toujours), mais des modèles plus avancés comme GPT-4 sont rapidement arrivés avec de nombreuses améliorations.
GPT-4 est le dernier modèle de la famille GPT (Generative Pre-trained Transformer). Il est développé par OpenAI, une startup d’intelligence artificielle fondée en 2015 par plusieurs entrepreneurs, dont l’homme d’affaires Elon Musk, bien qu’il n’en fasse plus partie, et qui a lancé des modèles tels que GPT (2018), GPT-2 (2019), GPT-3 (2020) et GPT-3.5 (2022).
Contrairement aux modèles précédents, GPT-4 offre une couverture multimodale. Cela signifie qu’en plus de prendre en charge la saisie de texte, il a la capacité d’ analyser les images . Les utilisateurs peuvent télécharger une image et demander à l’IA de nous fournir des détails à ce sujet ou même de nous aider à identifier certains éléments qui, à notre avis, peuvent passer inaperçus.
À ce stade, il convient de noter que GPT-4 lui-même n’a pas la capacité de générer des images. Cela ne signifie cependant pas que les applications qui fonctionnent avec lui ne peuvent pas le faire. ChatGPT Plus et Bing Chat, par exemple, peuvent renvoyer des images aux invites des utilisateurs grâce à leur intégration avec DALL·E 3 , un modèle complémentaire.
L’une des caractéristiques les plus remarquables du nouveau modèle est sa performance « au niveau humain » dans certains scénarios. GPT-4, selon OpenAI, est capable de réussir un examen simulé du barreau avec un score 10 % supérieur à la moyenne humaine. De plus, il présente en général des réponses plus précises et cohérentes que les modèles précédents de la firme.
Puisqu’il s’agit du modèle le plus avancé d’OpenAI, vous pourriez être intéressé à essayer GPT-4. La bonne nouvelle est qu’il existe plusieurs alternatives pour le faire. Voyons. Tout d’abord, le modèle est disponible via ChatGPT Plus, la version payante de ChatGPT. Le modèle peut être utilisé, avec certaines limitations, pour un prix de 20 $ par mois.
GPT-4 est également disponible via l’API. Dans ce cas, nous parlons du mécanisme avancé qui permet aux développeurs d’alimenter leurs propres applications, telles que Duolingo et Be My Eyes . Ici vous pouvez accéder à la version standard de GPT-4 ou à la version Turbo . Dans tous les cas, vous payez par jeton de sortie, même si le prix a été réduit .
La troisième option consiste à accéder à GPT-4 via Bing Chat . Microsoft, partenaire clé et investisseur d’OpenAI, a revitalisé son moteur de recherche avec l’intelligence artificielle et, suite à ce mouvement, a intégré un chatbot connecté à Internet. Ceci est alimenté par le dernier modèle OpenAI, c’est donc une bonne opportunité de l’utiliser de manière totalement ouverte et gratuite.
GPT-4 a été formé avec un énorme ensemble de données qui lui donne la capacité de répondre à un grand nombre de sujets. Il peut également être utilisé comme assistant d’écriture, pour apprendre des langues, générer des idées et même apprendre à programmer. Tout cela est cependant limité par deux problèmes importants qui doivent être pris en compte lors de son utilisation.
Le modèle d’intelligence artificielle, dans de nombreux cas, nécessite des instructions très élaborées et spécifiques pour faire du bon travail, ce que nous appelons des invites. C’est là que se démarque le rôle de ceux que l’on appelle les ingénieurs d’invites , spécialisés dans la compréhension du modèle pour en tirer le meilleur parti grâce à des indications textuelles. Mais ce n’est pas tout.
En tant que modèle d’IA, GPT-4 n’a pas la capacité de raisonner et d’identifier les concepts qui sont bons ou mauvais. De plus, cette technologie souffre encore de plusieurs problèmes comme la reproduction de préjugés sociaux et d’hallucinations. Pour tout cela, il est important d’utiliser les modèles d’IA de manière responsable et en tenant compte de leurs avantages et de leurs limites.
Si vous vous demandez comment ChatGPT a obtenu toutes les informations dont il dispose, la réponse repose sur une formation intense. GPT-4 a été formé avec des ensembles de données contenant de grandes quantités de données qui l’ont aidé à apprendre et à générer un langage similaire à celui que nous, les humains, utilisons. Derrière ce modèle se cache une architecture dite « Transformer ».
L’objectif de cette architecture, proposée par Google en 2017 , est d’innover dans la mise en œuvre de couches permettant d’adapter le modèle pour être efficace et efficient dans un large éventail de tâches. OpenAI, dans ses modèles GPT, l’a utilisé pour implémenter plusieurs couches qui convertissent chaque mot en un vecteur numérique permettant au modèle de traiter mathématiquement le texte.
, est responsable de son traitement via un réseau neuronal et utilise des mécanismes d’attention pour le comprendre et résoudre les problèmes de manque de mémoire des réseaux neuronaux récurrents.
Avec GPT-3.5, j’ai le même sentiment que lorsque j’ai utilisé Internet pour la première fois quand j’étais enfant
Mais il ne s’agit pas seulement de couches. Un grand nombre de paramètres sont également impliqués dans les modèles GPT . Ceux-ci se forment au cours du processus d’apprentissage automatique et, en théorie, sont directement liés aux performances et à la précision du modèle.
Selon la documentation OpenAI , GPT-3 possède 12 couches et 175 milliards de paramètres. La principale différence entre le dernier modèle OpenAI et son évolution, selon Wired , pourrait résider dans les paramètres. GPT-4 a peut-être été entraîné avec 100 milliards de paramètres, soit près de 600 fois plus que son prédécesseur.
A noter que depuis que l’entreprise dirigée par Sam Altman a commencé à s’éloigner du concept à but non lucratif qui a vu sa naissance, elle a choisi de ne pas dévoiler certains détails techniques . En ce sens, le document GPT-4 n’indique pas de détails infimes tels que le nombre de paramètres qui ont été utilisés dans sa formation.
Le contraste entre un modèle et un autre est également présenté du côté de la fenêtre contextuelle, c’est-à-dire que la capacité du modèle à absorber des mots en une seule fois est mesurée en jetons (1 000 jetons équivalent à 750 mots). GPT 3.5 prend en charge jusqu’à 4 096 jetons, tandis que GPT-4, pour le moment, peut traiter 8 192 jetons, ce qui équivaut à environ 6 144 mots.
Il y a aussi son caractère « multimodal ». Comme nous le disons ci-dessus, au lieu de travailler uniquement avec du texte, GPT-4 est également capable d’accepter des images en entrée.
De plus, le modèle fait un énorme bond en avant en termes de performances. Pour mesurer ses capacités, l’entreprise l’a soumis à des tests spécialement conçus pour les humains, mais sans procéder à des ajustements spécifiques pour les réussir. Comme indiqué dans un document , GPT-4 a réussi les tests de manière satisfaisante, obtenant de meilleurs résultats que ceux obtenus par GPT-3.5.
Début février, Microsoft a réorganisé Bing avec un nouveau moteur de recherche et une nouvelle fonctionnalité de chat, en utilisant une combinaison de technologies propriétaires et OpenAI pour affronter le géant de Mountain View, Google. La question après la présentation était de savoir si nous voyions enfin GPT-4 en action. La vérité est que cette question a trouvé une réponse. En effet, Bing fonctionne avec GPT-4.