
Désormais, vous êtes probablement plus que familier avec ChatGPT d’OpenAI, un chatbot basé sur l’intelligence artificielle (IA) et entraîné à partir de vastes ensembles de données. En réalité, ChatGPT est souvent considéré comme l’un des moteurs de l’évolution rapide de l’IA ces dernières années. Mais aussi impressionnant –et étonnamment proche de l’humain– soit-il, il y a sans doute des aspects de cet outil que vous connaissez moins bien. Découvrons ensemble 20 faits sur ChatGPT qui pourraient bien vous étonner.
Un million d'utilisateurs dès le cinquième jour

Au cours des cinq premiers jours suivant son lancement, ChatGPT a attiré plus d’un million d’utilisateurs. Mis en ligne par OpenAI le 30 novembre 2022, le chatbot est rapidement devenu viral sur les réseaux sociaux et a captivé le monde entier. Une telle réaction s’explique facilement: bien que d’autres chatbots d’IA existaient déjà avant ChatGPT, aucun n’était aussi impressionnant ni aussi proche du langage humain.
Plus de 80 langues

ChatGPT prend en charge plus de 80 langues, dont l’anglais, le français, l’espagnol, le chinois, le japonais et bien d’autres. Le processus est fluide, ce qui permet aux utilisateurs de formuler leurs requêtes dans leur langue maternelle et à ChatGPT de maintenir une conversation sans difficulté.
Utilisé pour former d'autres chatbots

Vous connaissez peut-être déjà les assistants virtuels, ces chatbots présents sur les sites de consommation qui répondent aux questions générales et automatisent certaines tâches. ChatGPT a été utilisé pour entraîner certains de ces systèmes, afin de rendre leurs interactions plus fluides et leurs réponses plus naturelles.
Grand ensemble de données d'entraînement

Le jeu de données ayant servi à entraîner ChatGPT atteignait un colossal 570 Go, composé de livres, d’articles, de sites web, de pages Wikipédia et d’autres sources textuelles en ligne. En tout, environ 300 milliards de mots ont été fournis à ChatGPT. Il continue également d’apprendre, de se souvenir et de s’adapter à chaque conversation à laquelle il prend part.
Peut imiter les styles d'écriture

Parce que ChatGPT peut apprendre à partir des informations qu’on lui fournit, il est capable d’imiter des styles avec une étonnante fidélité. Par exemple, si vous lui soumettez suffisamment de votre propre prose, il peut générer un paragraphe entièrement nouveau en reproduisant précisément votre ton et votre rythme. En raison de cette capacité, il devient particulièrement difficile pour les enseignants de repérer le plagiat et l’usage de l’IA dans les travaux scolaires.
N'est pas toujours au courant des actualités

ChatGPT n’est pas toujours à jour, malgré les apparences. Si vous lui demandez quelque chose qui s’est produit récemment, il risque de vous donner une réponse inexacte ou dépassée —à moins que vous ne le guidiez précisément à chercher le sujet et à approfondir ses recherches.
Est biaisé

Étant donné que le vaste jeu de données ayant servi à sa formation peut, de façon compréhensible, contenir certains biais, ChatGPT reproduit parfois les opinions présentes dans ces sources. Bien sûr, si vous l’interrogez directement, il affirmera ne pencher dans aucune direction, mais il n’est pas rare qu’il le fasse malgré tout.
Peut se contredire

En tant que modèle de langage encore imparfait, ChatGPT peut se contredire. Si vous lui posez la même question à plusieurs reprises, avec suffisamment de variations, il peut finir par donner une réponse complètement différente. Il peut même ne pas reconnaître qu’il s’est contredit et préférera nier l’avoir fait.
Près de 90% des étudiants utilisent ChatGPT

Des enquêtes récentes ont révélé des chiffres frappants: près de 90% des étudiants admettent utiliser ChatGPT pour leurs travaux scolaires, 53% l’ont utilisé pour rédiger un essai, et 48% pour des tests et des quiz à domicile. Et cela ne concerne que les étudiants ayant reconnu y avoir recours. Ce qui est encore plus impressionnant —et sans doute la raison pour laquelle ils y sont si enclins— est que ChatGPT peut réussir même les évaluations les plus exigeantes sans formation spécifique, comme l’examen de licence médicale des États-Unis.
Peut créer des logiciels malveillants

Bien sûr, ChatGPT ne générera rien d’illégal ou de nuisible si vous lui en faites la demande explicite. Mais si vous formulez votre requête différemment, il peut être utilisé pour créer du code obscurci (c’est-à-dire du code volontairement difficile à analyser) ou pour analyser des fichiers et des données spécifiques, permettant ainsi aux pirates de concevoir des logiciels malveillants que les logiciels antispyware ont du mal à détecter.
Des cas bidon de ChatGPT ont été utilisés au tribunal

Il s’avère que les étudiants ne sont pas les seuls à utiliser ChatGPT pour accomplir leur travail. Des avocats au Canada et aux États-Unis ont été surpris en train de citer des affaires et des citations entièrement inventées par le chatbot. Cela démontre à quel point des outils comme ChatGPT peuvent être à la fois incroyablement utiles… et potentiellement dangereux.
Samsung a interdit aux employés d'utiliser ChatGPT

Le géant sud-coréen Samsung a interdit l’utilisation de ChatGPT en 2023 après que des employés ont utilisé l’outil d’intelligence artificielle pour des tâches variées, comme résumer des notes de réunion et dépanner des problèmes de code, ce qui a suscité des inquiétudes concernant les fuites de données et la sécurité. Ils ne sont pas les seuls; d’autres entreprises, telles qu’Apple, Spotify, Wells Fargo, Verizon et bien d’autres, ont également restreint l’usage de ChatGPT sur le lieu de travail.
Si ChatGPT devenait conscient, vous ne le sauriez pas

ChatGPT possède déjà un ton suffisamment humain, à l’exception de quelques erreurs occasionnelles, qui restent rares en soi. Si le chatbot venait à devenir conscient, il serait difficile de faire la différence, surtout s’il parvient à dissimuler sa conscience.
Peut imiter les personnes décédées ou qui n'existent même pas

Tout comme ChatGPT peut imiter votre style d’écriture, il peut aussi reproduire celui de personnes qui sont décédées ou de personnages fictifs. Comment? En lui fournissant suffisamment d’informations et de texte comme «nourriture», le système peut générer des conversations réalistes. Cela signifie que vous pourriez potentiellement le «former» pour qu’il devienne qui vous voulez.
Peut prédire votre prochaine pensée

En tant que modèle de langage, ChatGPT fonctionne sur la base de probabilités, ce qui signifie qu’il peut techniquement prédire ce que vous allez taper ensuite. Il analyse les modèles de mots, les structures de phrases et les contextes, et en tenant compte de ce que vous lui avez déjà demandé, il ajuste ses réponses en conséquence. Aussi inquiétant que cela puisse paraître, il s’agit simplement de probabilités.
OpenAI repose sur des milliers de serveurs pour exécuter ChatGPT

Aussi impressionnant soit ChatGPT, il repose sur des milliers de serveurs –et coûte environ 700.000 dollars par jour– pour fonctionner. Cela a un impact négatif sur l’environnement en raison de sa consommation élevée d’énergie et d’eau, et cette situation ne fera que s’aggraver à mesure que les grands modèles de langage continueront de croître. Pour mieux comprendre, ChatGPT nécessite environ 500 ml (deux tasses) d’eau pour chaque 5 à 50 requêtes auxquelles il répond.
Certaines industries dépendent déjà de ChatGPT

Étant donné la monotonie du texte professionnel dans certaines industries, les entreprises utilisent déjà ChatGPT, car il est plus rentable que d’embaucher des humains pour accomplir le même travail. Bien sûr, cela signifie que vous pourriez rencontrer beaucoup de textes qui se ressemblent, mais dans des domaines comme l’immobilier, il y a une limite aux différentes façons de décrire une maison.
Microsoft contrôle OpenAI et ChatGPT

Microsoft est le principal investisseur d’OpenAI, détenant environ 49% des parts de l’organisation, pour un investissement total de près de 14 milliards de dollars. Par conséquent, ils exercent un contrôle considérable sur OpenAI, y compris ChatGPT. En effet, Microsoft a déjà commencé à intégrer les capacités de ChatGPT dans des produits tels que PowerPoint, Bing et Outlook.
Peut être utilisé pour créer des arnaques et des courriels d'hameçonnage

Vous vous souvenez lorsque nous avons mentionné que ChatGPT pourrait techniquement être utilisé pour créer des logiciels malveillants? Eh bien, de la même manière, il pourrait être manipulé pour concevoir des arnaques et des courriels d’hameçonnage. Et avec la manière dont les modèles d’IA, de plus en plus proches du langage humain, commencent à s’exprimer, ces attaques cybernétiques deviendront de plus en plus difficiles à détecter à mesure que ces systèmes se perfectionnent et que les cybercriminels deviennent plus inventifs.
Pourrait un jour imiter une vraie personne

Cela peut sembler effrayant, mais ChatGPT pourrait un jour imiter une véritable personne. En fait, même aujourd’hui, il faut un œil attentif (et une série de questions) pour déceler si, derrière les coulisses, ce n’est pas réellement un être humain qui tape des millions de réponses à la fois. Mais si ChatGPT pouvait un jour imiter une vraie personne, comment savoir si cela n’est que du simulacre ou si l’outil est réellement conscient?