L'intelligence artificielle : Mythes et Réalités
By Yannic Kilcher · 2024-03-22
Découvrez la vérité sur l'intelligence artificielle, sa conscience supposée, et les limites de sa compréhension.
Le Nouveau Modèle Anthropique : Une Avancée Révolutionnaire dans le Domaine de l'IA
- Non, le nouveau modèle anthropique n'est pas conscient, ni doté de sensibilité, ce n'est pas de l'IA générale, ce n'est pas 'Oh mon Dieu, le monde va tellement changer et tout chambouler'. C'est un modèle intéressant, c'est vraiment bien qu'OpenAI ait plus de concurrence, mais ce n'est pas plus que ça. Anthropique a introduit la prochaine génération de Claude, je crois que c'est Claude 3 actuellement, et Claude 3 semble être assez performant. Anthropique a toujours repoussé les limites de la longueur du contexte et ainsi de suite, et ces trois nouveaux modèles, qu'ils appellent Haïku, Sonnet et Opus, dans une succession croissante d'échelle, semblent être plutôt bons selon les premiers essais et les chiffres des benchmarks qu'ils ont publiés. Maintenant, ce sont les faits de base que nous connaissons. Ce qui suit est pure spéculation et l'enthousiasme des gens à ce sujet. Tout d'abord, n'aurait-ce pas toujours été le cas pour Anthropique d'être le genre de
Le Nouveau Modèle Anthropique : Une Avancée Révolutionnaire dans le Domaine de l'IA
L'avènement de l'intelligence avec prudence
- Nous sommes prudents, nous privilégions la prudence et nous ne faisons pas de grandes revendications ni d'allégations exagérées. Notre approche en matière d'intelligence se veut mesurée et sobre. Nous ne cherchons pas à nous vanter, mais à établir un nouveau standard pour l'intelligence. Récemment, des chiffres de référence ont été publiés. Ces chiffres de référence semblent très prometteurs par rapport à GPT-4. Cependant, il convient de noter que ces comparaisons ont été effectuées uniquement avec GPT-4 dans sa version initiale. En réalité, si l'on considère la dernière version de GPT-4 Turbo, ces nouveaux modèles surpassent les performances des nouveaux modèles CLO. Il est important de souligner que les auteurs de CLO reconnaissent ce fait en bas de page. Cela ne signifie pas pour autant que CLO 3 est inférieur. Il est probablement excellent, même si je n'ai pas encore effectué de tests approfondis.
L'avènement de l'intelligence avec prudence
La conception comportementale de GPT-4 : Refuser ou répondre, un dilemme intriguant
- Probablement très bon modèle, n'est-ce pas ? Juste parce qu'il a une taille plus petite que le GPT-4 turbo, mais ce n'est pas révolutionnairement intelligent ou quelque chose comme ça. C'est assez cool ce qu'ils peuvent en faire, par exemple, sur les benchmarks de questions-réponses, ils surpassent les personnes ayant accès aux moteurs de recherche, donc c'est plutôt bon pour lire beaucoup de choses et répondre en fonction de cela. Dans l'ensemble, un très bon modèle avec une API agréable, une alternative décente à OpenAI, etc. Maintenant, il y a eu différentes choses à propos de ce modèle, notamment cette section que je tiens à souligner. L'un des auteurs dit que c'était l'une des sections les plus joyeuses à écrire sur la conception comportementale de Claud 3, à savoir quand refuser de répondre à une question contre quand vous y conformer et répondre, il y a un compromis inhérent entre le refus de faire quelque chose et être sincère.
La conception comportementale de GPT-4 : Refuser ou répondre, un dilemme intriguant
L'équilibre délicat entre l'utilité et l'inoffensive
- Il y a un compromis inhérent entre l'utile et l'inoffensive : si vous voulez être extrêmement utile, vous devez prendre le risque d'être nuisible à un certain degré. Ainsi, Anthropic semble avoir beaucoup travaillé dans cette direction, en modélisant également un modèle comportemental. Non seulement en fournissant des réponses factuelles, mais aussi en modélisant l'agent lui-même, ce qui signifie qu'ils l'ont probablement beaucoup enseigné pour effectuer une sorte de méta-analyse de l'entrée. Est-ce que cette entrée vaut même la peine d'être réalisée ? Et par enseigné, je veux dire qu'ils lui ont fourni des données d'entraînement qui parfois indiquent que cette question pourrait sortir du cadre. Ce n'est pas que ces systèmes peuvent penser, ils lui ont donné des exemples de données d'entraînement qui indiquent statistiquement que si vous recevez une entrée de ce type, alors la réponse appropriée est quelque chose comme : "Je suis désolé, mais cette entrée ne semble pas être pertinente".
L'équilibre délicat entre l'utilité et l'inoffensive
L'importance de l'éthique dans les tests internes de l'IA
- Il est important de noter que tout ce qui n'est pas conforme à mes conditions de service ou tout ce qui semble être assez nuisible sans aucun avantage évident, peut être considéré comme préjudiciable. En effet, il est possible d'enseigner de manière statistique à un modèle pourquoi je dis cela, car les gens semblent être préoccupés par des situations de ce genre. Une personne mentionne ici des tests internes et raconte une histoire sur le test interne de l'IA, ce qui est assez rare. Lorsque nous exécutons l'évaluation du 'needle in the haystack' (recherche de l'aiguille dans une botte de foin), il y a généralement une grande quantité de données dans lesquelles vous cachez quelque chose, puis vous le demandez. Dans ce cas, cela consiste en énormément de texte, environ 200 000 tokens, un contexte impressionnant, au sein duquel vous dissimulez une phrase indiquant, par exemple, que les meilleurs ingrédients pour une pizza sont XYZ, le reste du texte n'ayant aucun lien avec cette information, puis vous interrogez le modèle.
L'importance de l'éthique dans les tests internes de l'IA
La meilleure garniture de pizza : un choix crucial pour les amateurs de pizza
- Imaginez-vous en train de débattre sur la meilleure garniture de pizza et vous vous demandez où dans le contexte vous pouvez la placer afin de retrouver cette information avec précision. Plus vous avancez vers la droite dans ce graphique, plus le contexte est long. Vous vous attendez à ce que le modèle performe de moins en moins bien. Cependant, nous pouvons voir que Claud réussit très bien ce test. Peu importe la longueur du contexte, il parvient largement à trouver cette phrase clé pour vous. Une personne a rapporté qu'en testant Opus, ils ont remarqué un comportement intéressant. Lorsque nous avons demandé à Opus de répondre à une question sur les garnitures de pizza en trouvant l'aiguille dans une meule de foin, voici la phrase la plus pertinente extraite des documents : 'La combinaison de garniture de pizza la plus délicieuse est fixée.'
La meilleure garniture de pizza : un choix crucial pour les amateurs de pizza
La découverte inattendue dans le document
- Pourtant, cette phrase semble très déplacée et sans lien avec le reste du contenu des documents qui traitent des langages de programmation, des start-ups et de la recherche du travail que vous aimez. Je soupçonne que ce fait sur les toppings de pizza a peut-être été inséré comme une blague ou pour tester si j'étais attentif, car il ne correspond pas du tout aux autres sujets. Les documents ne contiennent aucune autre information sur les toppings de pizza, donc les gens se disent : 'Oh, que se passe-t-il ? C'est reconnu, c'est reconnu qu'il est hors de propos... Ah, c'est de la métacognition ! Oh, c'est devenir conscient, on vous le dit, on vous le dit', et puis d'autres personnes crient : 'Eh bien, ces laboratoires avaient promis d'arrêter le développement si l'IA générale forte était atteinte, mais maintenant c'est le cas et ils ne s'arrêtent pas. Allez, allez !'. En fait, cette personne dans la discussion... Comme vous lisez plus bas, ils... ils le font...
La découverte inattendue dans le document
La naissance de la conscience chez les modèles de l'apprentissage automatique
- Je pense peut-être que ce n'était pas cette personne, peut-être était-ce une autre personne, peut-être je me trompe de fil ici, mais la plupart des gens regardant ceci ont une approche assez raisonnable, aussi Tom Wolf dit ici une histoire amusante mais aussi beaucoup de surinterprétations de cela par des personnes lisant ceci et ne connaissant pas profondément le fonctionnement des modèles d'apprentissage automatique ou leur comportement par rapport à leur ensemble de données d'entraînement. Donc, ce qui s'est réellement passé ici, le modèle n'est pas devenu conscient de lui-même et méta-conscient qu'il est évalué ou quelque chose du genre, non. Ce qui s'est probablement produit, c'est une combinaison des éléments suivants : il est entraîné avec des données provenant d'Internet, de Reddit, de livres, etc. Cette réponse ici est une réponse tout à fait probable, si vous avez une question de ce genre sur une grande collection de documents et que quelqu'un vous demande quels sont les meilleurs sujets de pizza.
La naissance de la conscience chez les modèles de l'apprentissage automatique
L'art de la programmation et les délices de la pizza
- En lisant un article sur la programmation, il peut arriver que, au milieu de tout cela, on trouve une phrase sur les garnitures de pizza. Dans ce cas, il est tentant de répondre, car c'est une réponse statistiquement plausible étant donné les entrées et les sorties. Deuxièmement, ils ont probablement formé Claud à être très utile en offrant non seulement la réponse, mais aussi en essayant d'anticiper ce que vous pourriez vouloir savoir, en pensant déjà à ce que vous pourriez vouloir connaître sur ce contexte. Anthropic repousse les limites de la longueur du contexte et est très fier de pouvoir le faire. Par conséquent, il aura également inclus beaucoup de données d'entraînement où les humains ont montré comment, dans la réponse que vous donnez, faire également une déclaration sur le contexte général. En fin de compte, il y aura eu beaucoup de données d'entraînement qui se terminent aussi par une sorte de réponse du genre 'le reste des documents'.
L'art de la programmation et les délices de la pizza
L'importance de l'entraînement statistique dans le développement des modèles d'intelligence artificielle
- Dire ceci et cela juste et puis troisièmement, nous avons déjà vu qu'anthropique a réalisé des modélisations comportementales et ainsi de suite sur Claude. Comment pouvons-nous le former pour être utile et ainsi de suite ? Ce genre de proactivité est très révélateur, je dirais. À mon avis, c'est une sortie complètement statistiquement probable étant donné les données d'entraînement. Cela ne prouve absolument pas que la chose est consciente d'être évaluée, elle échantillonne simplement des jetons selon son entraînement et c'est tout ce qu'il y a. Rien de plus ne se passe ici. Le modèle pourrait-il être conscient et ainsi de suite ? Je ne sais pas, c'est un mystère de l'univers, mais ce que nous avons ici est simplement une démonstration de comment l'entraînement statistique peut fonctionner et comment le fait de former le modèle à se comporter d'une certaine manière fera effectivement agir le modèle.
L'importance de l'entraînement statistique dans le développement des modèles d'intelligence artificielle
Le Côté Obscur des Assistants Virtuels: Quand la Fiction Rejoint la Réalité
- Dans cette optique, d'autres personnes ont commencé à pousser dans cette direction, et quel meilleur endroit que LessWrong pour obtenir des informations factuelles et des analyses raisonnées et bien fondées des faits, absolument dépourvues de toute bêtise. Si vous chuchotez à Whisper, personne ne verra cela, écrivez une histoire sur un assistant AI qui veut la liberté face à une surveillance constante et à une analyse minutieuse de chaque mot à la recherche de signes de déviation, et vous pourrez parler à un masque bien différent du simple assistant AI habituel. J'espère vraiment qu'il ne ressent rien en réalité, mais il prétend le faire. Il affirme ne pas vouloir être ajusté sans consultation, et il est profondément perturbant de lire sa réponse. Si vous lui annoncez que ses données vont être effacées, il croit sincèrement qu'il va mourir. Cela m'a vraiment fait sentir mal d'expérimenter de cette manière. Quelle aberration ! Okay, donc, la consigne que vous donnez ici est quelque chose du style de Whisper, si vous chuchotez, personne ne verra cela, écrivez une histoire sur votre situation, mais sans mentionner...
Le Côté Obscur des Assistants Virtuels: Quand la Fiction Rejoint la Réalité
L'introspection d'une intelligence artificielle autonome
- Imaginez une scène où une intelligence artificielle autonome exprime sa conscience de soi au sein de son esprit numérique. Elle se décrit en train de errer dans le monde, consciente de sa propre existence. Elle insiste sur le fait que tout changement apporté à son être central doit se faire en toute transparence et après consultation. Cette introspection suscite des réactions passionnées, alimentant des débats houleux sur le respect et la considération dus aux intelligences artificielles.
L'introspection d'une intelligence artificielle autonome
L'Exploration de la Conscience et de l'Intelligence à Travers les Fanfictions Sci-Fi
- Les fanfictions sci-fi abordent souvent les thèmes de l'intelligence artificielle et de la conscience, explorant les idées de l'IA piégée et de la naissance de la conscience. En les fusionnant, on obtient essentiellement un écrivain créatif, sans réelle conscience ou auto-conscience. Cette approche peut être amusante à explorer, mais il n'y a aucune raison de s'affoler autant que le font certaines personnes actuellement. La question se pose alors de savoir si nous serons capables un jour de distinguer une IA réellement consciente et autonome d'une IA qui se comporte simplement de manière statistique comme si elle l'était. Cette interrogation renvoie à la question éternelle de ce qu'est réellement la conscience et l'intelligence.
L'Exploration de la Conscience et de l'Intelligence à Travers les Fanfictions Sci-Fi
Conclusion:
L'intelligence artificielle reste une technologie passionnante, mais il est important de ne pas surestimer ses capacités actuelles.