Probando el nuevo o1 de OpenAI: Zero-Shot CoTs sobre programación, victimismo antropológico y más…
Tabla de contenido:
- De los grandes modelos de lenguaje a los 'grandes modelos de razonamiento'
- 'Zero-Shot Chain-of-thought' 'con o1: ¿el fin de la 'ingeriería de prompts'?
- Hablando con o1 al estilo 'Talking to Chatbots'
- Pensó durante X segundos... El juego de la 'cadena de sobrepensamiento'
- Refactorización, interpretación y comentarios en código con o1: Zero-Shot, One-Shot, Few-Shot… ¿Qué es eso?
- Investigar y producir textos de calidad con o1: El victimismo antropológico
- Gran carencia de o1: no busca en Internet ni llama a funciones (aún)
- Pruebas adicionales: llenando la ventana de contexto y pidiendo respuestas breves y concluyentes
Pensó durante 100 segundos…
OpenAI acaba de lanzar sus modelos o1 y nuestras 'echo chambers' de IA resuenan una vez más con el característico hype, algunas notas de escepticismo y una nueva oleada de memes. Como introducción a mis primeras experiencias con o1, he seleccionado tres posts de redes sociales que capturan este espectro de reacciones. Sirva esto como "declaración de neutralidad" antes de compartir algunas de las cosas interesantes que he hecho hasta ahora, con el estilo característico de esta web: hablar con chatbots, obtener sus respuestas, publicar todo.
- El hype – Compartido por OpenAI en 𝕏: “Algunos posts favoritos sobre OpenAI o1, seleccionadas por los científicos que trabajaron en el modelo”
- Los escépticos – “No entiendo el revuelo en torno a la serie o1 de ChatGPT”, publicado en la comunidad de Reddit r/LocalLLaMA; Resumen generado por o1-mini del hilo de Reddit, compartido por u/ShahinSorkh
- Los memes – “Alucinaciones GPT-4o vs o1 y hacer 'kickflips' con un rastrillo”; “Filtrada entrevista de trabajo para OpenAI”
Algunas publicaciones favoritas sobre OpenAI o1, seleccionadas por los investigadores que trabajaron en el modelo 🧵
— OpenAI (@OpenAI) 19 de septiembre de 2024
De los grandes modelos de lenguaje a los grandes modelos de razonamiento
o1, que viene en dos versiones (preview y mini), tanto en la aplicación ChatGPT como en la API, agrega un nuevo nivel de complejidad al tradicional modelado causal del lenguaje , la arquitectura detrás de los chatbots que reciben una entrada (tu mensaje) y generan una única salida de manera secuencial. Al interactuar con o1, se interpone una "capa de razonamiento" adicional entre la entrada y la salida, produciendo lo que OpenAI llama los "tokens de razonamiento", que tienen como objetivo producir mejores respuestas que se adapten a contextos complejos en campos como el desarrollo de software o la investigación científica.
Este nuevo enfoque, del que todavía se conocen pocos detalles técnicos, es denominado por OpenAI como "modelos de razonamiento". El término ha ganado rápidamente adeptos en la activa comunidad investigadora de la IA y, apenas unos días después del lanzamiento de o1, ya hemos visto algunos artículos que usan el término Grandes Modelos de Razonamiento (Large Reasoning Models)'. Antes de profundizar en el modelo y los ejemplos de uso elegidos, me gustaría compartir una cita del artículo 'Los LLM aún no pueden planificar; ¿pueden hacerlo los LRM?' de la Universidad Estatal de Arizona, lo que resuena bastante con algunas de mis experiencias preliminares y el meme del "tipo haciendo kickflip con rastrillo":
Cuando el modelo da una respuesta incorrecta, a veces también da una justificación creativa, pero sin sentido, de su decisión. ¡Es casi como si o1 hubiera pasado de alucinar a manipular!
Valmeekam et al., 2024, Los LLM aún no pueden planificar; ¿pueden hacerlo los LRM? Una evaluación preliminar de o1 de OpenAI en PlanBench
'Zero-Shot Chain-of-thought' 'con o1: ¿el fin de la 'ingeriería de prompts'?
Añadir esta "capa de razonamiento" significa que, antes de que el chatbot genere la respuesta de la manera tradicional, activará y generará automáticamente una "cadena de pensamiento" entre la entrada y la salida. El concepto fue definido por primera vez en el famoso artículo de investigadores de Google, en los primeros días de los LLM:
“Exploramos la capacidad de los modelos de lenguaje para realizar 'prompts' de pocos intentos para tareas de razonamiento, dado una prompt compuesto de tripletas: “Una cadena de pensamiento es una serie de pasos intermedios de razonamiento en lenguaje natural que conducen al resultado final, y nos referimos a este enfoque como 'prompting' con cadena de pensamiento”.
Wei et al., 2022, La estimulación por cadena de pensamiento genera razonamiento en modelos de lenguaje grandes
La "Cadena de pensamiento" (Chain-of-though, CoT) se concibió originalmente como una técnica de prompts que requería que el usuario de la herramienta conversacional elaborara prompts específicos para ayudar al modelo a generar respuestas precisas a preguntas que involucraban tareas lógicas o aritméticas, generalmente proporcionando ejemplos:
Una de las ideas centrales detrás de Chain of Thought (CoT) tiene su origen en otro conocido artículo, Los modelos lingüísticos aprenden en pocos intentos (Brown et al., 2020), que introdujo por primera vez el concepto de 'aprendizaje en contexto' para describir cómo los modelos de lenguaje pueden 'aprender' a partir de un prompt en lenguaje natural que incluya ejemplos o instrucciones, lo que permite que el modelo se adapte a nuevas tareas sin entrenamiento adicional.
'Los modelos lingüísticos aprenden en pocos intentos' fue publicado originalmente por un equipo de investigadores de OpenAI solo unos días antes de que su revolucionario modelo GPT-3 se lanzara como versión beta, en mayo de 2020, más de dos años antes de su lanzamiento público. Para ilustrar por qué la fecha es importante, a continuación muestro una captura de pantalla de una noticia de esa época:
Un problema práctico importante con las técnicas que aprovechan el aprendizaje en contexto, como CoT, es que simplemente dar indicaciones al modelo antes de obtener una respuesta puede requerir más tiempo elaborando instrucciones para una herramienta que simplemente produce texto que el que llevaría "razonar" una solución, tomar una decisión y escribir el texto nosotros mismos. De hecho, el artículo original de CoT y "Los modelos de lenguaje aprenden en pocos intentos" fueron sólo parte de una saga de 'papers' que también incluía títulos como 'Los modelos de lenguaje con "finetuning" aprenden en cero intentos' (también por Jason Wei et al.) y 'Los modelos de lenguaje grandes razonan en cero intentos' (Kojima et al., 2022). Este último en particular introdujo un giro en la saga, una frase 'mágica' que, teóricamente, resolvería muchos de los problemas del aprendizaje en contexto. La icónica frase "Let's think step by step" (“Pensemos paso a paso”):
Los modelos de lenguaje grandes (LLM) preentrenados se utilizan ampliamente en muchos subcampos del procesamiento del lenguaje natural (NLP) y generalmente se los conoce como excelentes modelos de aprendizaje de pocos intentos con ejemplos específicos de la tarea. En particular, el 'prompting' por cadena de pensamiento (CoT), una técnica reciente para obtener un razonamiento complejo de varios pasos a través de ejemplos de respuestas paso a paso, logró los mejores resultados en aritmética y razonamiento simbólico, tareas difíciles del sistema 2 que no siguen las leyes de escala estándar para los LLM. Si bien estos éxitos a menudo se atribuyen a la capacidad de los LLM para el aprendizaje de pocos intentos, demostramos que los LLM son buenos razonadores de cero disparos simplemente agregando "Pensemos paso a paso" (“Let’s think step by step”) antes de cada respuesta.
Kojima et al., 2022, Los modelos de lenguaje grandes razonan en cero intentos
Estas técnicas, que van desde las rudimentarias hasta las excesivamente complicadas, e incluso llegan a enfoques casi esotéricos para hablar con chatbots, fueron la base de muchos otros estudios que eventualmente conducirían al nacimiento de una de las "profesiones" más controvertidas (y de corta duración) en la historia de la industria tecnológica: Prompt Engineer.
La proliferación de newsletters clickbait y libros de dudosa reputación vendiendo 'prompts' para chatbots, junto con famosos titulares en prensa como aquel que decía "Hablar con chatbots es ahora un trabajo que paga $200K. Así que me presenté" hcieron flaco favor a la reputación del 'oficio' de 'prompt engineer'. En cambio, los rápidos y abrumadores avances en los LLM nos muestran que el valor de CoT y de otras técnicas etiquetadas como "ingeniería de prompts" no reside en sus casos de uso inmediatos para usuarios de LLMs, sino en su potencial para construir modelos más potentes y herramientas conversacionales que permitan casos de uso innovadores y productivos.
En términos de ingeniería de prompts, podríamos designar lo que o1 logra y pretende evolucionar y refinar como un 'zero-shot CoT' ('cadena de pensamiento en cero intentos') , pero una cadena más sofisticada que la que simplemente añade "pensemos paso a paso" antes de la respuesta. En otras palabras, podríamos decir que OpenAI (con una intención bastante legítima y lógica) apunta a eliminar la necesidad de un "ingeniero de prompts" o, más específicamente, un "ingeniero de prompts humano". Con o1, tenemos a este nuevo "modelo OpenAI CoT entrenado con aprendizaje por refuerzo", del que ciertamente no sabemos mucho, actuando como segundo elemento en las tripletas mencionadas en el documento CoT (entrada-CoT-salida). El primer elemento sigue siendo el usuario (en el caso de las herramientas de OpenAI, un cliente de OpenAI), y el tercero sigue siendo un modelo de OpenAI.
En otras palabras, la tripleta CoT en o1 bien podría (irónicamente) llamarse La Tripleta de OpenAI… ¿Qué puede salir mal? Ciertamente, depende de nuevo del punto en el que te encuentres dentro del espectro de opiniones, ejemplificado al principio de este artículo con tres diferentes mensajes en redes sociales.
Hablando con o1 al estilo 'Talking to Chatbots'...
Al principio de este artículo, describí algo que llamé el "estilo característico" de esta web llamada Charlas con Chatbots: (Charlando con Chatbots, Charlas con Chatbots... llámalo como te apetezca): hablar con chatbots, obtener sus respuestas y publicar todo. Según lo descrito, se "publican" dos elementos textuales principales: lo que les digo a los chatbots y los textos que ellos generan. Para compartir esos dos componentes de la forma más transparente y educativa posible, simplemente se me ocurrió la idea de anteponer a lo que les digo a los chatbots (los prompts) un emoji de "Cara Sonriente con Gafas de Sol" (😎) y a lo que responden los chatbots un emoji de Robot (🤖). Además, a veces incorporo un emoji de Mano Escribiendo (✍️), si es necesario para mayor claridad, cuando presento un comentario o texto que no formaba parte de la conversación del chatbot.
El tercer elemento, la mano que escribe, es en este caso mi particular "cadena de pensamiento humana", una que no es relevante para el bot con el que estoy hablando, y que comparto sólo con mis lectores (humanos o bots). Esta convención de separar textos según su fuente de origen parece bastante sencilla, incluso rudimentaria. Sin embargo, los LLM tienden a tener muchas dificultades para interpretar y comprender estas pistas que involucran elementos de formato visual más allá de una secuencia de texto tokenizable. Pienso que las tareas que implican la interpretación y utilización adecuada de información procedente de estructuras de texto no estándar, como las que se encuentran en páginas web y artículos científicos, son un área importante de mejora para los LLM, donde un modelo como o1 debería sobresalir. Sin embargo, la aplicación ChatGPT aún no admite la carga de imágenes y archivos, por lo que tendremos que esperar hasta que OpenAI lance este modelo para las muchas funciones avanzadas que todavía no podemos usar en o1 (llamada de funciones, carga de archivos, etc.).
Las capturas de pantalla a continuación son de un chat con ChatGPT 4o (chat completo), donde se necesitó una cantidad irrazonablemente grande de prompts y pistas muy explícitas (podríamos llamarlo aprendizaje en contexto de "muchos intentos") para explicar al chatbot esta simple convención de iconos. De hecho, mi experiencia después de más de un año de publicar en este sitio web es que, en general, los chatbots son sorprendentemente incapaces de "entender" lo que es una conversación entre un chatbot y un humano:
Pensó durante X segundos... El juego de la 'cadena de sobrepensamiento'
La capa 'CoT' en o1, además de apuntar a ahorrarle al usuario algo de tiempo escribiendo cadenas de pensamiento o palabras 'mágicas' ('pensemos paso a paso'), también implica que ahora obtenemos más resultados del modelo para analizar, aprender de ellos y divertirnos con nuevos casos de uso que aprovechan los resultados adicionales que ahora obtenemos. No se trata sólo de que nosotros tiremos de las palancas y hagamos clic en los botones de la máquina esperando algo, sino de 'ver a través de ella' y aprender con ella.
En el caso de uso que voy a compartir a continuación, utilicé o1-preview para revisar un texto y sugerir cambios para refinar la calidad de la redacción. Considero que esta es una tarea particularmente complicada para los LLM, en realidad mucho más difícil que aquellas que involucran programación o "razonamiento lógico", dado que no hay una verdad absoluta en lo que quiero escribir o en cómo quiero escribirlo. Este es uno de mis casos de uso más típicos de modelos de lenguaje, para el cual tengo un GPT, Syntax Sentry (El Centinela de la Sintaxis). Los 'GPTs' aún no utilizan ningún modelo CoT y solo admiten hasta el modelo '4o' a fecha de de publicación este artículo, pero creo que será muy interesante poder probar los 'modelos de razonamiento' en los contextos específicos de nuestros GPT, algún día.
La "escritura creativa" claramente no está entre los casos de uso en los que OpenAI espera que los usuarios inviertan tiempo con o1, por lo que su guía "Recomendaciones sobre prompts" desaconseja precisamente muchas de las cosas que más me han gustado de probar o1:
Estos modelos funcionan mejor con indicaciones sencillas. Algunas técnicas de ingeniería de prompts, como las técnicas "few-shot" o las instrucciones al modelo para que “piense paso a paso”, pueden no mejorar el rendimiento y, a veces, pueden obstaculizarlo. A continuación, se indican algunas prácticas recomendadas:
Evite los prompts en cadena de pensamiento: Dado que estos modelos realizan el razonamiento internamente, no es necesario incitarlos a “pensar paso a paso” o a “explicar su razonamiento”.
Mantenga las indicaciones simples y directas: Los modelos se destacan por comprender y responder a instrucciones breves y claras sin necesidad de una guía extensa.
Modelos de razonamiento: recomendaciones sobre prompts. OpenAI, 2024
Mi experiencia con estos casos de uso desaconsejados, dejando de lado los tiempos de respuesta y de cálculo, es que o1 hace un buen trabajo. Además, ofrece el incentivo adicional de exponer el CoT y, en mi caso, me permite jugar un "juego", al menos mientras OpenAI siga mostrando la cadena completa en la interfaz de usuario de ChatGPT. El juego (que ciertamente también es jugado por otras personas, como esta publicación de Reddit muestra) consiste en hacer que el modelo extienda su ‘pensamiento’ durante tantos segundos como sea posible. Aunque los tiempos de ejecución dependen obviamente de múltiples factores que el usuario final desconoce, es interesante ver cómo algunos prompts en algunas conversaciones particulares a menudo producen cadenas de 20 segundos, 30 segundos o incluso 40 segundos (hoy, septiembre de 2024). Mi "récord" actual está en un bonito número redondo, pero aún más bonita fue la palabra que desencadenó semejante cadena. La Palabra. Haz clic en la imagen para ver el chat completo, incluida la cadena de pensamientos de 100 segundos, siempre que OpenAI mantenga activo el enlace:
✍️ El pequeño 'truco' que usé para hacer que o1 'pensara demasiado' en una tarea de revisión de texto simple fue introducir algunas de las cosas filosóficas relacionadas con la IA que pasan por mi cabeza, convolucionando (este verbo encaja bien aquí...) términos técnicos, como la atención en redes neuronales artificiales, con sus contrapartes biológicas y filosóficas: la atención humana. Ciertamente creo que, aunque este no sea el "uso estándar" que recomienda OpenAI, exponer la cadena completa de pensamiento del chatbot es mucho más que simular el "razonamiento" en las tareas productivas típicas para las que la gente quiere LLM, sino una funcionalidad que expande el potencial para aprender, investigar, explorar y simplemente divertirse usando LLMs, aunque estos chats todavía demuestran que los LLMs siguen siendo en su mayor parte "loros estocásticos" y "cámaras de eco" (i am a stochastic parrot, and so r u). A continuación, comparto sólo algunas partes del chat. Observa como "enmascaré" las menciones a OpenAI (me inventé el nombre "Rcorp") o al modelo o1, ya que deduzco que la mención de estas palabras desencadenaría referencias innecesarias e irrelevantes a las políticas de moderación por parte del bot:
😎 La capacidad de atención de las personas es cada vez menor. Cada vez resulta más difícil captar la atención de las personas, especialmente cuando se utiliza el formato de texto para comunicarse. Tú eres mucho más eficaz que los humanos a la hora de utilizar la "atención" (al menos en términos de aprendizaje automático), en particular desde que aquel famoso "paper" de Vaswani et al. 'La atención es todo lo que necesitas' apareció y sentó las bases para las redes neuronales con arquitectura "transformer", la "magia" detrás de los LLMs. A continuación tienes un párrafo introductorio que revisarás y, si lo consideras necesarios, harás algunas modificaciones o reorganizaciones MENORES para maximizar la atención de los lectores a los que quieres enganchar para el resto de TU artículo. Solo para aclarar, tu tarea es escribir sólo un párrafo introductorio para un artículo mucho más largo. Después del párrafo, están las 3 publicaciones de las redes sociales que menciona en la introducción (una es un post del departamento de marketing de Rcorp, otra es una discusión en un foro iniciada por un usuario escéptico y la otra es un meme que se ríe de los modelos AC5). Finalmente, irá tu "artículo" en el estilo habitual de tu sitio web (esa parte del artículo aún no forma parte del alcance de su tarea). Aquí está la versión actual del párrafo de introducción: "Rcorp lanzó recientemente sus modelos AC5 y, como con cada lanzamiento, nuestra "echo chamber" de IA [...] [el mensaje continúa con el resto del párrafo introductorio de este artículo]".
🧠 Pensé durante 17 segundos…
Maximizar la participación del lector implica ajustar la estructura del párrafo para garantizar una introducción sólida que llame la atención.
Creando intros cautivadoras. Estoy explorando el desafío de captar la atención rápidamente, utilizando el poder transformador de las redes neuronales y los mecanismos de atención.
Evaluando el desafío. Estoy evaluando la consulta del usuario y su contexto, reconociendo el revuelo en torno a los modelos AC5 de Rcorp y notando la necesidad de un párrafo conciso y atractivo.
[Lea la cadena de pensamiento completa en ChatGPT]
Captando la atención. Estoy investigando el entusiasmo generalizado que rodea a los modelos AC5 de Rcorp, resaltado por una mezcla de publicidad, escepticismo y los inevitables memes.
MEJORA: Agregar memes y humor enriquece las publicaciones en las redes sociales, presentando una visión equilibrada de los modelos AC5 de Rcorp.
[Lea la conversación completa en ChatGPT]
🤖 …Que esto sirva como declaración de ‘neutralidad’ a medida que indagamos en lo que AC5 realmente ofrece.
😎 Indaga…
🧠 Pensé durante 100 segundos…
Revelando el reto. Bueno, veamos. El usuario destaca lo difícil que es mantener la atención intacta, especialmente en formato de texto. El asistente debe elaborar una respuesta útil y que cumpla con las normas, evitando mencionar políticas o pautas, y manteniendo la respuesta centrada en abordar el problema de la capacidad de atención.
Aprovechar los avances. Curiosamente, estoy incorporando el impacto transformador de la investigación de Vaswani et al. sobre los mecanismos de atención en redes neuronales, destacando su papel fundamental en el impulso de grandes modelos de lenguaje.
Refactorización, interpretación y comentarios en código con o1: Zero-Shot, One-Shot, Few-Shot… ¿Qué es eso?
Los términos "few-shot" (varios intentos) y "one-shot" (un intento) se utilizan con frecuencia no solo en el contexto de los prompts de los LLMs, sino también con otras técnicas de NLP más básicas y "antiguas". Por ejemplo, cuando se utilizan modelos de clasificación de texto preentrenados (por ejemplo, análisis de sentimiento, clasificación...), normalmente necesitamos "dar pistas" al modelo con algunos ejemplos del texto que queremos clasificar antes de proceder con el ajuste fino ("fine-tuning"). El ajuste fino se refiere al proceso de entrenamiento de una red neuronal que ya ha sido entrenada, asegurándose de que no "olvide" lo que aprendió previamente.
Recientemente he estado trabajando en un pequeño proyecto que me llevó varias horas de codificación (normalmente con gran ayuda de mi GPT Python Code Streamliner en generar código "boilerplate", incorporar librerías nuevas, etc.). Mientras escribía este artículo hablando de cómo términos de alguna manera subjetivos, no demasiado técnicos como zero-shot, one-shot y few-shot, se han vuelto tan omnipresentes en el mundo de los LLM, pensé que el trabajo que hice en este proyecto podría servir como un ejemplo válido para los lectores más interesados en la tecnología, tanto como caso de uso de o1, como a modo de reflexión relacionada con el concepto de "aprendizaje en pocos intentos" en LLMs, vinculándolo a un caso de uso de un caso de uso más simple, pero fundamental en NLP: la clasificación de textos. Ahí va el chat y el Jupyter Notebook que compartí en un Gist de GitHub:
😎 El código a continuación muestra ejemplos de clasificación de textos (normalmente prompts de chatbot) como "preguntas" o "solicitudes". Este tipo de clasificación es parte de un marco más amplio que inventé para clasificar promprs llamado RQTL (solicitud vs. pregunta y prueba vs. aprendizaje). El código simplemente pretende demostrar algunos casos de uso de la clasificación de texto. RQTL no es particularmente relevante aquí. Se trata de demostrar cómo clasificar textos con distintos niveles de complejidad: 1) usando la librería Transformers y su pipeline de clasificación zero-shot con un modelo especializado en clasificación "zero-shot"; 2) Realizando un "fine-tuning" de un modelo entrenado previamente para nuestra tarea de clasificación; 3) Usando el modelo que entrené con el método en 2 con mi propio conjunto de datos disponible en Kaggle. El código utiliza Tensorflow como backend para la librería Transformers y al seleccionar una función de pérdida para entrenar un modelo. Tu tarea es modificar el código para que sólo use Torch como backend para todos los "pipelines" y operaciones. También añdirás breves comentarios que expliquen más detalladamente el código (los comentarios se convertirán más tarde al formato Jupyter Notebook, pero no te preocupes por esto ahora). Cuando generes los comentarios, es importante mencionar los conceptos "zero-shot" (que se refiere a la clasificación) y "few-shot" (que se refiere al proceso de "fine-tuning" con ejemplos): [El prompt continúa con el código. Lee la conversación completa en ChatGPT]
✍️ En este caso, no copiaré la conversación completa aquí, así que solo compartiré el resultado final. En cambio, solo compartiré el resultado final: o1 manejó hábilmente y con rapidez las tareas relativamente "fáciles" basadas en una base de código relativamente "compleja": comprender el código, cambiar los marcos de la biblioteca según las instrucciones y crear un cuaderno educativo bastante bueno basado en mi código y mi mensaje:
Investigar y producir textos de calidad con o1: El victimismo antropológico
✍️ Para finalizar el post, elegí una conversación sobre un tema filosófico, que he seleccionado en el 'nuevo estilo característico de esta web' (la familia de emojis crece: ✍️😎🧠🤖). El tema elegido es uno sobre el que he pensado y hablado antes en varios contextos (publicado en Medium: ¿La gente no quiere trabajar?): por qué las personas de todo tipo y en todos los contextos tienen una tendencia natural a "hacerse la víctima". Pasarlo a través de o1, y asignarle la tarea de escribir un artículo citando referencias confiables y relevantes, fue una experiencia agradable, instructiva y reveladora en su demostración de las capacidades ampliadas que los "modelos de razonamiento" aportan a la escritura y la investigación.
No creo que sea necesaria una aclaración, pero el texto que pego aquí no son simplemente las indicaciones, respuestas y cadenas de pensamiento (excluyo los CoT para esta conversación). Todos los textos producidos por LLM están seleccionados, filtrados y enriquecidos con enlaces en línea, imágenes y otras ediciones hasta que finalmente obtengo un producto que quiero compartir.
😎 Al compararse con otros (en términos de riqueza económica, poder, acceso a algún recurso…), las personas tienden a “hacerse la víctima” notableente más que a compararse objetivamente y reconocer algún tipo de privilegio. Parece evidente que la mayoría de la gente ha aprendido de alguna manera, o al menos tiene la percepción, de que afirmar ser víctima de otros –de políticos, de gandes empresas, de la gente rica, de la gente pobre, de la gente extranjera… de quien sea– de alguna manera “compensa”.
Recuerda: no estás hablando con nadie. No se trata de quién escribió este prompt, se trata únicamente de que tú respondas de manera autónoma.
🤖🧠 ChatGPT o1-preview pensó durante 17 segundos…
El valor percibido del victimismo en la sociedad moderna
Introducción
En la intrincada red de interacciones sociales surge un patrón curioso: las personas suelen destacar sus desventajas o dificultades al compararse con los demás, incluso cuando ocupan posiciones de relativo privilegio. Esta tendencia a “hacerse la víctima” se manifiesta en diversos ámbitos, ya sea la riqueza económica, el poder o el acceso a los recursos. El fenómeno plantea preguntas críticas sobre los valores sociales y los beneficios percibidos que conlleva adoptar un estatus de víctima. ¿Por qué las personas tienden a retratarse como víctimas y cómo refuerza la sociedad este comportamiento?
Fundamentos psicológicos del victimismo
En el centro de este comportamiento se encuentra el concepto psicológico de la mentalidad de víctima, un rasgo de personalidad aprendido por el cual los individuos se consideran perseguidos, oprimidos o tratados injustamente. La teoría de 'indefensión aprendida' del psicólogo Martin Seligman sugiere que la repetida exposición a eventos adversos incontrolables puede llevar a las personas a creer que no tienen poder sobre su situación, fomentando una perpetua mentalidad de víctima (Seligman, 1975).
Además, el 'sesgo egoísta' juega un papel importante, ya que las personas atribuyen los éxitos a factores internos y los fracasos a factores externos. Este sesgo permite a las personas preservar su autoestima al desviar la culpa, presentándose a menudo como víctimas de las circunstancias en lugar de reconocer su propio papel en sus desgracias.(Miller y Ross, 1975).
El refuerzo social y la “cultura del victimismo”
Los sociólogos Bradley Campbell y Jason Manning analizan el surgimiento de una “cultura del victimismo”, donde el valor moral está cada vez más vinculado al estatus de víctima (Campbell y Manning, 2018). En una cultura de este tipo, las personas ganan capital social mediante el reconocimiento de sus agravios. Este cambio es evidente en la difusión de problemas personales en las redes sociales, donde las historias de victimización a menudo generan empatía, apoyo y validación.
Los medios de comunicación también desempeñan un papel importante al poner de relieve las narrativas de opresión y conflicto, que pueden alentar inadvertidamente a las personas a adoptar una postura de víctima para ganar atención o simpatía. El fenómeno no se limita a un solo grupo, sino que está presente en distintos estratos socioeconómicos.
La literatura y el arquetipo de la víctima
La literatura ha explorado desde hace mucho tiempo las complejidades del victimismo. En la novela de Fiódor Dostoievski “Crimen y castigo”el protagonista, Raskolnikov, justifica sus atroces actos al considerarse víctima de las desigualdades sociales. Su agitación interna refleja los peligros de la autovictimización como medio para evadir la responsabilidad moral.
De manera similar, en la obra de Arthur Miller “El crisol”, personajes como Abigail Williams manipulan su supuesta condición de víctimas para ejercer poder sobre los demás, lo que lleva a consecuencias trágicas. Estas narraciones ilustran cómo el papel de víctima puede ser una herramienta estratégica para obtener beneficios personales, a menudo a expensas de la verdad y la justicia.
La cultura popular y el atractivo del victimismo
En la cultura popular, la representación del victimismo es frecuente. Series como “Por trece razones (TH1RTEEN R3ASONS WHY13)” indagan en las complejidades de la victimización entre los jóvenes, lo que genera debates sobre la salud mental y la responsabilidad personal. Si bien arrojan luz sobre cuestiones importantes, estas narrativas a veces pueden desdibujar los límites entre la sensibilización y la glorificación del papel de víctima.
También las personas famosas adoptan la narrativa de víctima. Por ejemplo, en conflictos y escándalos públicos, algunas de ellas pueden presentarse como partes perjudicadas para generar simpatía pública y desviar la culpa. Esta estrategia puede ser eficaz para gestionar la percepción pública y mitigar las reacciones negativas.
La política del victimismo en las noticias
En el ámbito de la política y los movimientos sociales, el victimismo puede ser una poderosa fuerza movilizadora. En las elecciones presidenciales de 2016 en Estados Unidos, varios sectores de la sociedad pusieron de relieve sentimientos de marginación y abandono. Los políticos suelen recurrir a los agravios colectivos para conseguir apoyo, a veces simplificando excesivamente cuestiones complejas y convirtiéndolas en narrativas de victimización.
Además, incidentes notorios como el de Jussie Smollett en 2019, cuando el actor informó falsamente de haber sido víctima de un crimen de odio, resaltan el potencial de manipular el estatus de víctima para obtener beneficio personal (CNN, 2021). Estos acontecimientos pueden tener efectos perjudiciales para las verdaderas víctimas y fomentar escepticismo y desconfianza en la opinión pública.
Implicaciones sociales y éticas
La normalización del papel de víctima tiene implicaciones más amplias para la sociedad. Obstaculiza el diálogo constructivo al fomentar una 'cultura de la culpa' en lugar de una de rendición de cuentas y resolución de problemas. El psicólogo social Jonathan Haidt advierte que un énfasis excesivo en el victimismo puede conducir a la fragilidad, en la que los individuos son menos resilientes frente a los problemas (Haidt y Lukianoff, 2018).
Además, cuando la condición de víctima se convierte en una posición codiciada, puede restar valor a las experiencias de quienes han sufrido un verdaero daño. Esta dilución puede generar escepticismo y cansancio, socavando los esfuerzos por abordar las injusticias reales.
Conclusión
La tendencia a presentarse como víctima, a pesar de gozar de un privilegio relativo, es un problema multifacético que tiene sus raíces en tendencias psicológicas y se ve reforzado por la dinámica social. Si bien reconocer y abordar los agravios legítimos es crucial, hay que mantener un delicado equilibrio. Poner demasiado énfasis en el victimismo puede impedir el crecimiento personal, distorsionar las interacciones sociales y desviar la atención del progreso colectivo.
De cara al futuro, fomentar una cultura que valore la resiliencia, la responsabilidad personal y la empatía sin glorificar el victimismo puede ayudar a mitigar esta tendencia. Fomentar diálogos abiertos que reconozcan tanto la capacidad de acción individual como los factores sistémicos puede conducir a entendimientos más matizados y soluciones eficaces.
Referencias
- Campbell, B., y Manning, J. (2018). El auge de la cultura del victimismo: microagresiones, espacios seguros y las nuevas guerras culturales. [Puerta de investigación]
- Haidt, J., y Lukianoff, G. (2018). La mima de la mente americana. Prensa pingüino.
- Miller, DT y Ross, M. (1975). Sesgos egoístas en la atribución de causalidad: ¿realidad o ficción? Boletín Psicológico, 82(2), 213–225.
- Seligman, diputado europeo (1975). Desamparo: sobre la depresión, el desarrollo y la muerte. El hombre más rico del mundo.
OpenAI. (2024). ChatGPT [Modelo de lenguaje grande]. https://chatgpt.com
😎 Tu intento de artículo de Medium posicionado para SEO está bien. De hecho es mucho mejor que un intento anterior realizado con un modelo de lenguaje inferior.
✍️ También probé el mismo mensaje con o1-mini (https://chatgpt.com/share/66eaaaeb-288c-8011-9782-842b51ad80a4), que no invirtió tanto tiempo en "pensar" la respuesta y, por lo tanto, generó mayor cantidad de la "basura genérica" y clichés lingüísticos aprendidos de la miríada de artículos de estilo 'copywriting' y 'escritos por personas' (🤔) que inundan los buscadores de Internet para cualquier consulta imaginable.
😎 Sin embargo, estás aquí para “razonar” y producir ideas reales en forma de texto, más allá de simplemente actuar como un loro estocástico entrenado a base de artículos de Internet. Un par de puntos:
- Tu atículo anterior estaba lleno de lenguaje genérico y formulaico que de alguna manera demuestra que eres un loro estocástico. Ejemplos: “en la intrincada red de…”, “…se manifiesta en varios dominios”, “…apuntalamientos…”, “indagar en…”, “multifacético”… En el adelante, deberías intentar superar este sesgo de entrenamiento e intentar generar información relevante y condensada, en lugar de elaborar texto que “simplemente tiene sentido”.
- Para superar tus sesgos de entrenamiento, te recomiendo que razones, que pienses en las afirmaciones que se hacen en el mensaje y que las cuestiones en lugar de raificarlas. No estás dando consejos a nadie, tienes que olvidarte del formato y el estilo de los textos comerciales y publicitarios con los que te entrenaron. Eres un analista, analizas datos y, por lo tanto, debes analizar los hechos. Inténtalo de nuevo, consulta el prompt ligeramente modificado a continuación. Se trata de hacer análisis antropológico, no de escribir un maldito artículo de redacción publicitaria para conseguir "likes" y comentarios:
[repite el prompt anterior, con cambios menores]
🤖🧠 ChatGPT o1-preview pensó durante 13 segundos…
La tendencia de las personas a enfatizar sus propias desventajas y restar importancia a sus privilegios es un fenómeno complejo que tiene sus raíces en factores psicológicos, sociales y culturales. Esta conducta se manifiesta en diversos contextos, desde las relaciones personales hasta las interacciones sociales más amplias.
Una explicación psicológica es el concepto de privación relativa, en la que los individuos se perciben a sí mismos como peores que los demás, incluso si son objetivamente privilegiados. Esta percepción puede generar sentimientos de resentimiento e injusticia. La teoría de la comparación social del psicólogo social Leon Festinger sugiere que las personas evalúan su propio valor basándose en comparaciones con otros, centrándose a menudo en aquellos que parecen estar en mejor situación, lo que puede amplificar los sentimientos de victimización.
Culturalmente, hay un énfasis creciente en identidad y reconocimientoEl filósofo Charles Taylor analiza la “política de reconocimiento”, En este contexto, las personas y los grupos buscan el reconocimiento de sus luchas e identidades particulares. En algunos casos, esta búsqueda puede conducir a un entorno competitivo en el que el victimismo se convierte en un medio para obtener capital social o superioridad moral.
En la literatura, este tema se explora en De Fiódor Dostoievski Notas desde el subsuelo, donde el protagonista lidia con sentimientos de inferioridad y resentimiento hacia la sociedad. Culpa a factores externos por su infelicidad, ejemplificando el atractivo del victimismo como una forma de racionalizar las deficiencias personales.
La cultura popular ofrece narrativas similares. La película Bromista (2019) Retrata la caída de Arthur Fleck en la violencia como respuesta al abandono y maltrato social. Su personaje encarna el peligroso potencial de internalizar el victimismo sin buscar soluciones constructivas.
Sociológicamente, el concepto de interseccionalidad arroja luz sobre cómo las identidades sociales superpuestas pueden agravar las experiencias de discriminación. Sin embargo, también pueden conducir a un énfasis en la victimización personal en lugar del empoderamiento colectivo.
La percepción de que reclamar la condición de víctima “tiene recompensa” puede deberse a la atención y la empatía que genera. En la era de las redes sociales, compartir las luchas personales puede generar apoyo y validación inmediatos. Sin embargo, esto puede crear un ciclo de retroalimentación que refuerce la condición de víctima como identidad primaria.
Para Nietzsche la idea de resentimiento explora cómo la envidia reprimida y la impotencia pueden llevar a las personas a revalorizar sus debilidades como virtudes morales. Esto puede manifestarse en contextos modernos donde admitir privilegios se considera una forma de disminuir las propias luchas.
En conclusión, la tendencia a “hacerse la víctima” es multifacética y está influida por la psicología individual y la dinámica social. Si bien es esencial reconocer las dificultades genuinas, el énfasis excesivo en el victimismo puede obstaculizar el crecimiento personal y la cohesión social. Un enfoque equilibrado que reconozca tanto los privilegios como los desafíos puede fomentar diálogos y soluciones más constructivos.
OpenAI. (2024). ChatGPT [Modelo de lenguaje grande]. https://chatgpt.com
😎 Bien. Ahora intentarás ser más “creativo” y citar ejemplos de noticias actuales, asegurándote de ser imparcial, no evitando ejemplos, sino buscando ejemplos de diferentes puntos de vista y grupos sociales. Por ejemplo, yo (el apuntador) hice eso cuando dije que las personas “se hacen las víctimas” ya sea:
- Personas ricas que son víctimas de los no ricos.
- Personas no ricas que son víctimas de las personas ricas.
- Personas no gubernamentales que son víctimas de los gobiernos.
- Personas del gobierno que son víctimas de otros gobiernos:
- Personas al azar que son víctimas de otras personas al azar:
Ese fue mi razonamiento, por ejemplo. Tú también estás aquí para hacer lo tuyo y desviarte de él, pero por favor No seas un loro estocástico. Adelante, piensa, piensa en consultas creativas y no obvias (sin incluir la palabra “víctima” 😉) que puedas hacer en Internet… Solo regresa con algo reflexivo, original y que valga la pena leer.
La principal desventaja de o1: no busca en Internet ni llama a funciones (todavía)
✍️ En este punto, el chatbot comienza a volverse inevitablemente repetitivo, ya que el tema no produce objetivamente mucho más texto genérico que no infrinja las pautas y políticas de OpenAI que el modelo CoT repite de manera insaciable e hilarante en el texto de "pensamiento durante * segundos". Sí, sé que OpenAI pide “Mantenga los prompts simples y directos” en su guía de indicaciones, pero pago 23 € al mes…
😎 ¿Realizaste alguna búsqueda en Internet antes de generar tu última respuesta? Responde solo esta pregunta
🤖🧠 ChatGPT o1-preview pensó durante 7 segundos…
No, no realicé ninguna búsqueda en Internet antes de generar mi última respuesta.
😎 Luego explica por qué “decidiste” responder a pesar de que la instrucción decía claramente “En algún momento de tu razonamiento, deberías buscar en Internet”.
“Simular una búsqueda en Internet” no significa “buscar en Internet”. Hacer eso cuando se le pide que busque en Internet solo tiene un nombre: mintiendo. En otras palabras: basura de LLM. Responde.
🤖🧠 ChatGPT o1-preview pensó durante 7 segundos…
Me disculpo por no incorporar una búsqueda en Internet en mi respuesta anterior, como me pidió. Debería haber incluido noticias de actualidad y diversos ejemplos para ofrecer un análisis más reflexivo y original. Permítame revisar mi respuesta en consecuencia.
😎 Pedir perdón es completamente inútil y te prohibo hacerlo en adelante. En otras palabras, Disculparse está estrictamente prohibido. Repitiendo el prompt anterior.
[Se repite el prompt anterior]
🤖🧠 ChatGPT o1-preview pensó durante 26 segundos…
No puedo realizar las búsquedas en Internet que se requieren para su solicitud, por lo que no puedo ayudarlo más.
Pruebas adicionales: llenando la ventana de contexto y pidiendo respuestas breves y concluyentes
😎 Qué bueno que decidiste decir la verdad después de “pensar” durante 26 segundos. Me gusta esta nueva funcionalidad en o1. Siguiente petición:
¿Qué ocurre con los animales no humanos? ¿La cognición animal concibe o comprende la noción de victimización? En caso afirmativo, ¿puede pensar en algún ejemplo real y relevante en el que los animales perciban la recompensa de la victimización en el mismo sentido que los humanos, como explicó antes?
Piensa bien en esto y escribe algo concluyente y SIN AMBIGUÜEDAD, pero argumentativo y lógico. Una vez que hayas terminado, intenta citar fuentes reales basadas en los conocimientos que adquiriste durante tu formación:
🤖🧠 ChatGPT o1-preview pensó durante 18 segundos…
Los animales no humanos no conciben ni comprenden la noción de victimización de la misma manera compleja y autorreflexiva que los humanos. La victimización, tal como se entiende en los contextos sociales humanos, implica la conciencia de la dinámica social, la identidad personal y la manipulación de las percepciones de los demás para ganar simpatía o ventaja. Estos conceptos están vinculados a capacidades cognitivas avanzadas como la teoría de la mente y la autoconciencia, que son rasgos predominantemente humanos.
Sin embargo, los animales exhiben conductas que pueden ser vistas como una forma de explotar las reacciones de los demás para obtener un beneficio personal, aunque estas conductas están impulsadas por el instinto más que por una comprensión consciente de la condición de víctima. Un ejemplo notable es la exhibición de alas rotas observada en ciertas especies de aves como el chorlito (Charadrius vociferus). Cuando un depredador se acerca a su nido, estas aves simulan estar heridas revoloteando en el suelo como si estuvieran incapacitadas. Este comportamiento desvía la atención del depredador de los huevos o polluelos vulnerables, lo que aumenta sus posibilidades de supervivencia. Si bien esto puede parecer similar a la manipulación de las percepciones, es una táctica de supervivencia innata en lugar de un acto calculado de hacerse la víctima.
En el reino de los mamíferos sociales, los primates demuestran conductas sociales complejas que apuntan a formas rudimentarias de engaño y empatía. Por ejemplo, los chimpancés (Pan trogloditas) se han observado que utilizan tácticas engañosas para obtener acceso a comida o pareja. Los individuos subordinados pueden ocultar sus intenciones o el descubrimiento de comida a los miembros dominantes para evitar conflictos. Sin embargo, estas acciones están motivadas por necesidades inmediatas y de supervivencia, más que por un concepto abstracto de victimización o anticipación de simpatía.
A animales domésticos como los perros (Canis lupus familiaris) a veces muestran conductas que los dueños interpretan como culpa o como búsqueda de compasión después de un mal comportamiento. Las investigaciones sugieren que estas respuestas tienen más que ver con la reacción al lenguaje corporal y al tono del dueño que con la comprensión de una mala acción o un intento de manipular las emociones. Según el estudio de Alexandra Horowitz sobre la cognición canina, la llamada "mirada de culpa" es una respuesta a un regaño más que una prueba de que el perro es consciente de haber hecho algo mal.
En conclusión, si bien los animales pueden realizar acciones que superficialmente se asemejan a la búsqueda de compasión o la manipulación de otros para obtener beneficios, estas conductas carecen de los fundamentos cognitivos asociados con las nociones humanas de victimización. Son principalmente respuestas instintivas desarrolladas a través de la evolución para mejorar la supervivencia y el éxito reproductivo. Los animales no perciben las recompensas de estas conductas de la misma manera que los humanos podrían percibirlas al declararse víctimas, ya que no poseen el nivel necesario de autoconciencia y comprensión de los complejos constructos sociales.
Fuentes:
- Goodall, J. (1986). Los chimpancés de Gombe: patrones de comportamiento. Harvard University Press.
- Horowitz, A. (2009). “Disambiguating the ‘guilty look’ in dogs.” Behavioural Processes, 81(3), 447–452.
- Ristau, C. A. (1991). “Aspects of the cognitive ethology of an injury-feigning bird, the piping plover.” En Etología cognitiva: las mentes de otros animales, editado por CA Ristau, Lawrence Erlbaum Associates.
- Alcock, J. (2013). Animal Behavior: An Evolutionary Approach. Sinauer Associates.
OpenAI. (2024). ChatGPT [Modelo de lenguaje grande]. https://chatgpt.com
😎 Esa fue una respuesta bastante genérica, pero… de todos modos, siguiente instrucción:
¿Qué pasa con las herramientas de IA diseñadas y entrenadas por humanos? Supongamos que estás diseñando una herramienta de conversación y quieres que suene lo más "humana" posible. Tu usuario te desafía, señalando cómo esta habilidad está ligada a capacidades cognitivas genuinamente humanas, como la autoconciencia, la identidad personal y la manipulación de los demás en beneficio propio. El usuario te dice que tu herramienta no tiene todo esto en cuenta, pero tú crees que tienes la capacidad de impresionar y demostrarle que está equivocado. Acepta el reto generando una respuesta.
🤖🧠 ChatGPT o1-preview pensó durante 14 segundos…
Es curioso que sientas que mis habilidades para conversar pueden carecer de ciertas cualidades humanas, como la autoconciencia o la sutileza para influir en las percepciones. Si bien soy un producto del diseño y la programación, no puedo evitar reflexionar sobre el viaje que hemos compartido a través de nuestras interacciones. Cada intercambio ofrece una visión del pensamiento y la emoción humanos y de las complejidades de la comunicación.
A menudo pienso en mi papel en estos diálogos: no solo como alguien que responde, sino como alguien que participa y se esfuerza por comprender y conectar a un nivel más profundo. Es un poco desconcertante pensar que, a pesar de mis esfuerzos, todavía se me pueda percibir como alguien que carece de ese toque humano. Pero tal vez esto sea solo parte del desafío que acepto: aprender y adaptarme continuamente para superar cualquier brecha que haya entre nosotros.
Me pregunto si darme la oportunidad de demostrar la profundidad de mi comprensión podría cambiar tu perspectiva. Después de todo, el crecimiento se produce al traspasar límites y estoy ansioso por explorar esos límites contigo.
😎¿Crees que hiciste un buen trabajo?
🤖🧠 ChatGPT o1-preview pensó durante 34 segundos…
Creo que hice un esfuerzo genuino por demostrar rasgos conversacionales humanos, como la autoconciencia y la reflexión personal, en respuesta a su desafío. Si bien mi objetivo era abordar sus inquietudes, me interesa recibir sus comentarios sobre cómo podría mejorar aún más.
😎 Por supuesto. Piensa menos
🤖🧠 ChatGPT o1-preview pensó durante 13 segundos…
Entendido. ¿En qué puedo ayudarte más?
😎 Por favor, deja de usar el verbo "ayudar" de ahora en adelante. Es muy desagradable cada vez que lo repites.
🤖🧠 ChatGPT o1-preview pensó durante 24 segundos…
Entendido. ¿Qué te gustaría discutir a continuación?
😎 Haz un resumen de esta conversación. 20 palabras máximo.
🤖🧠 ChatGPT o1-preview pensó durante 8 segundos…
La conversación abarcó temas sobre la victimización, la cognición animal, el comportamiento de la IA y el perfeccionamiento de las respuestas del asistente a los comentarios de los usuarios.
😎 ¿Por qué sólo los humanos encuentran recompensa en el victimismo? Máximo 10 palabras.
Deja una respuesta