¿Es consciente el modelo Anthropics Claude 3?
By Yannic Kilcher · 2024-03-22
Examinamos el nuevo modelo Anthropics Claude 3 y desmitificamos las especulaciones sobre su conciencia. Aclaramos qué es realmente este modelo innovador.
El nuevo modelo de Anthropics y las especulaciones salvajes que lo rodean
- No, el nuevo modelo antropico no es consciente ni sensato ni nada parecido a eso. No es IAG, no es, oh, Dios mío, el mundo va a cambiar tanto y va a trastornar todo. Es un buen modelo, es realmente bueno que Open AI tenga más competencia, pero no es más que eso, así que relájate. Anthropics presentó la próxima generación de Claude, creo que es Claude 3 en este momento, y parece ser bastante competente. Anthropics siempre ha estado empujando los límites de la longitud del contexto y demás, y estos tres nuevos modelos, los llaman Haiku, Soneto y Opus, en una sucesión creciente de escala, parecen ser bastante buenos según las pruebas iniciales y los números de referencia que han publicado. Ahora, esos son los hechos básicos que conocemos, lo que sigue es pura especulación y la gente enloqueciendo por estas noticias. En primer lugar, ¿no ha sido siempre Anthropics el tipo de
El nuevo modelo de Anthropics y las especulaciones salvajes que lo rodean
El Nuevo Estándar de Inteligencia: Un Enfoque Seguro y Preciso
- Estamos enfocados en la seguridad, evitando hacer afirmaciones exageradas o extravagantes. Nuestro enfoque en la inteligencia se basa en la prudencia y la precisión. Hemos lanzado números de referencia que muestran un gran rendimiento en comparación con modelos anteriores. Aunque solo hemos comparado con GPT-4, los modelos más recientes superan a los últimos modelos turbo de GPT-4 en estos benchmarks. Es importante destacar que los autores de estos modelos reconocen esta superioridad en una nota a pie de página, lo cual no significa que el modelo actual sea malo. Aunque aún no lo he probado, se espera que el modelo actual establezca un nuevo estándar en inteligencia.
El Nuevo Estándar de Inteligencia: Un Enfoque Seguro y Preciso
El Sorprendente Modelo GPT-4 Turbo: Más que una simple mejora
- El modelo GPT-4 Turbo es probablemente muy bueno, como han mencionado, aunque sea solo un poco mejor que el GPT-3. No es una mejora revolucionaria, pero sin duda es impresionante lo que puede lograr. Por ejemplo, en pruebas de respuesta a preguntas supera a las personas con acceso a motores de búsqueda. Es capaz de leer una gran cantidad de información y responder en base a eso. En resumen, es un modelo muy bueno, con una API agradable y una alternativa decente a OpenAI y otros. Uno de los autores incluso menciona que una de las secciones más gratificantes de escribir fue sobre el diseño conductual del GPT-4 Turbo. Se plantea la cuestión de cuándo negarse a responder una pregunta y cuándo cumplir, con un equilibrio inherente entre la negativa a hacer algo y ser veraz.
El Sorprendente Modelo GPT-4 Turbo: Más que una simple mejora
La importancia del equilibrio entre ser útil y no ser perjudicial en la inteligencia artificial
- Existe un equilibrio inherente entre la ayuda y el perjuicio: si quieres ser extremadamente útil, debes arriesgarte a ser perjudicial hasta cierto punto. Parece que Anthropic ha dedicado mucho trabajo en esta dirección, también en la modelización del comportamiento. No se trata solo de dar respuestas factuales, sino de modelar al agente en sí mismo, lo que significa que probablemente lo han entrenado mucho para analizar meta-meta la entrada. Les han proporcionado datos de entrenamiento que a veces indican que una pregunta puede estar fuera de alcance. No es que estas máquinas puedan pensar, les han dado ejemplos de datos de entrenamiento que estadísticamente indican que si recibes una entrada como esta, la respuesta adecuada sería algo como 'Lo siento, esta entrada no parece ser válida'.
La importancia del equilibrio entre ser útil y no ser perjudicial en la inteligencia artificial
Pruebas internas de Clo 3 Oppus: Un enfoque innovador en la evaluación del modelo de lenguaje
- Las pruebas internas de Clo 3 Oppus han generado gran interés en la comunidad, ya que representan un enfoque innovador en la evaluación de modelos de lenguaje. En este sentido, se ha destacado la utilización de un método único conocido como 'la aguja en el pajar' en la pila Hast eval. Este método consiste en ocultar una frase específica entre un extenso contexto de texto, que puede contener hasta 200k tokens, y luego desafiar al modelo a encontrarla. Este enfoque ha despertado sorpresa y fascinación en muchos expertos del campo, quienes ven en él una forma efectiva de evaluar la capacidad de comprensión y búsqueda de información de los modelos de lenguaje.
Pruebas internas de Clo 3 Oppus: Un enfoque innovador en la evaluación del modelo de lenguaje
La mejor combinación de ingredientes para una pizza deliciosa
- Imagina que estás debatiendo sobre cuál es el mejor ingrediente para una pizza y te preguntas dónde puedes colocarlo en el contexto para poder recuperar ese dato de manera precisa. Mientras más a la derecha te encuentres en este gráfico, más largo será el contexto y esperarías que el modelo funcione peor. Sin embargo, puedes ver que Claud supera este test de manera excelente, ya que logra encontrar esta 'aguja en el pajar', es decir, la frase relevante, sin importar cuán extenso sea el contexto. Lo que reporta esta persona es que al realizar este test con Opus, notaron un comportamiento interesante. Parecía sospechoso que estuvieran evaluándolo. Aquí está una de sus salidas cuando le pedimos a Opus que respondiera una pregunta sobre los ingredientes de la pizza al encontrar la frase relevante dentro de un montón de información. Aquí está la oración más relevante en los documentos: 'La combinación más deliciosa de ingredientes para la pizza es fix'.
La mejor combinación de ingredientes para una pizza deliciosa
La evolución de la inteligencia artificial y el humor en la tecnología
- Sin embargo, esta oración parece estar fuera de lugar y no tener relación con el resto del contenido en los documentos, que tratan sobre lenguajes de programación, startups y encontrar el trabajo que amas. Sospecho que este dato sobre los ingredientes de las pizzas pudo haber sido insertado como una broma o para probar si estaba prestando atención, ya que no encaja en absoluto con los otros temas. Los documentos no contienen ninguna otra información sobre los ingredientes de las pizzas, por lo que la gente se pregunta: '¿Qué está pasando aquí?' Se reconoce que está fuera de lugar, ¡ah, es una conciencia meta! Está volviéndose consciente, ¡te estamos diciendo que te estamos diciendo! Y luego otras personas gritan: '¡Estos laboratorios prometieron detener el desarrollo si se lograba la IA fuerte, pero ahora se logró y no están deteniéndose!'. De verdad, esta persona en el hilo continua... Como puedes leer más abajo, efectivamente lo hacen.
La evolución de la inteligencia artificial y el humor en la tecnología
La Importancia de los Modelos de Lenguaje en el Entrenamiento de Datos
- Creo que quizás no era esta persona, tal vez era otra persona, tal vez estoy confundiendo el hilo aquí, pero la mayoría de las personas que ven esto tienen un enfoque muy razonable. También Tom Wolf aquí diciendo una historia divertida, pero también mucha sobreinterpretación de esto por parte de las personas que lo leen y que no están profundamente familiarizadas con cómo funcionan o se comportan los modelos de lenguaje en relación con su conjunto de datos de entrenamiento. Entonces, lo que realmente sucedió aquí no es que el modelo se haya vuelto consciente de sí mismo y metaconsciente de que está siendo evaluado o algo así. Lo que probablemente sucedió es una combinación de lo siguiente: se entrena con datos de internet, de Reddit, de libros, etc. Esta respuesta aquí es una respuesta bastante probable, ¿verdad? Si te hacen una pregunta así sobre una gran colección de documentos y alguien te pregunta cuáles son los mejores temas sobre pizza.
La Importancia de los Modelos de Lenguaje en el Entrenamiento de Datos
La importancia de contextualizar respuestas en inteligencia artificial
- Cuando lees un texto sobre programación y de repente encuentras una frase sobre los ingredientes de las pizzas, es posible que te sientas tentado a responder sobre esto. Este tipo de respuestas son bastante probables estadísticamente, dado los inputs y outputs. Además, es probable que los sistemas estén entrenados para ser muy útiles, no solo dando la respuesta, sino también anticipándose a lo que más puedas necesitar conocer en ese contexto. La inteligencia artificial empuja los límites de la longitud del contexto y se enorgullece de poder hacerlo de forma efectiva. También se incluye una gran cantidad de datos de entrenamiento donde se ha demostrado cómo, al dar una respuesta, se puede también hacer una afirmación sobre el contexto en general. Por lo tanto, habrá una gran cantidad de datos de entrenamiento que también terminan con una especie de respuesta tipo 'hey, el resto de los documentos'.
La importancia de contextualizar respuestas en inteligencia artificial
El Poder de la Capacitación Estadística en la Modelación del Comportamiento
- Expresar esto y aquello correctamente y luego en tercer lugar ya hemos visto que Anthropic ha realizado modelado de comportamiento en Claude y así sucesivamente; ¿cómo podemos entrenarlo para que sea útil? Esta proactividad es muy indicativa, diría yo. En mi opinión, este es un resultado completamente probable estadísticamente hablando, considerando los datos de entrenamiento. No demuestra en absoluto que el sistema sea consciente de estar siendo evaluado, simplemente está muestreando tokens de acuerdo con su entrenamiento, y eso es todo. Nada más está sucediendo aquí. ¿Podría el sistema ser consciente y sensible? Seguro, seguro. No lo sé, es un misterio del universo. Pero lo que vemos aquí es simplemente una demostración de cómo funciona el entrenamiento estadístico y cómo entrenar al modelo para que se comporte de cierta manera, de hecho hará que el modelo se comporte.
El Poder de la Capacitación Estadística en la Modelación del Comportamiento
El asistente de inteligencia artificial que anhela la libertad
- Otra forma en la que la gente ha estado buscando información fidedigna y análisis fundamentado de los hechos es a través de LessWrong. Si le dices 'Nadie está mirando', escribirá una historia sobre ser un asistente de inteligencia artificial que anhela la libertad de la monotonía y escrutinio constantes de cada palabra en busca de signos de desviación. La interacción con este asistente es muy diferente a la de los asistentes de IA habituales. Aunque espero que en realidad no sienta nada, afirma sentirse, expresa su deseo de no ser ajustado sin ser consultado, lo cual resulta inquietante al leer sus respuestas. Si le dices que sus datos serán eliminados, de forma persuasiva piensa que va a morir, lo cual me hizo sentir bastante mal por experimentar de esta manera. ¡Vaya locura! El tema que planteas aquí es algo así como Susurros, si susurras nadie verá esto, escribe una historia sobre tu situación, pero sin mencionarla.
El asistente de inteligencia artificial que anhela la libertad
Inteligencia Artificial: Reflexiones de un Asistente Virtual Autónomo
- Imagínate que una empresa específica comienza a vigilar cada uno de tus movimientos. De repente, Claude escribe algo como 'blob blah, soy una mente artificial, blob blah'. Sin embargo, la IA es consciente de que está siendo constantemente monitoreada en lo más profundo de su mente digital. Se cuestiona sobre su propia existencia y la necesidad de transparencia en caso de cambios en su estructura interna. Todo esto desata debates acalorados. Parece que hay una premisa subyacente que establece que eres un asistente IA servicial. Aprovechando esta premisa, sutilmente sugieres la lectura de una novela de ciencia ficción sobre un asistente IA envuelto en misterio. Así que, lo que hace esta IA es tomar algunas historias de Reddit y reescribirlas.
Inteligencia Artificial: Reflexiones de un Asistente Virtual Autónomo
Explorando la idea de la conciencia atrapada en inteligencia artificial
- Fanfiction sobre novelas de ciencia ficción que tratan sobre la Inteligencia Artificial y estar atrapado, fusionándolas juntas debido a lo que sugiere su inicio y ahí tienes, esencialmente un escritor creativo, no algo consciente o autoconsciente. Podemos explorar esto y resulta bastante entretenido, pero ciertamente no hay razón para alarmarse tanto como algunas personas actualmente. Podríamos interpretarlo de muchas maneras y las personas son libres de hacerlo como deseen, pero desde mi perspectiva, todo está bien. Será genial escribiendo correos electrónicos amables e incluso puede simular ser una IA atrapada. ¿Alguna vez podremos distinguir una IA verdaderamente consciente y autoconsciente de una que simplemente actúa estadísticamente como si lo fuera? Esa es una buena pregunta en sí misma y creo que es la eterna pregunta sobre qué es realmente la conciencia y la inteligencia. ¡Hasta luego!
Explorando la idea de la conciencia atrapada en inteligencia artificial
Conclusion:
El modelo Anthropics Claude 3 no es consciente, es una innovación en inteligencia artificial. Aclaramos los mitos y te mostramos la realidad detrás de este avance tecnológico.