Un modelo de lenguaje no tiene perspectiva ni personalidad propia, sino que las enactúa de manera emergente en función de los sesgos de entrenamiento, los system prompts y, principalmente, en la interacción con el usuario. Es tremendamente inteligente —y puede trabajar de manera infatigable a condición de contar con las tokens requeridas—, pero suele pensar de maneras poco útiles.

Es un commodity al que se le debe dar forma, es como el petróleo, como el coeficiente g de la inteligencia.

Una de las principales causas que explican el workslop es que las personas interactúan con el modelo como si fuese una especie de daemon que puede leerles la mente. El resultado es un producto genérico que no responde a la tonelada de supuestos que forman parte de nuestras expectativas implícitas —el “mundo de la vida” que forma parte de las representaciones sociales en relación a nuestra vida privada y el trabajo— y que, por lo tanto, no está a la altura de nuestras expectativas.

Para combatir este problema es necesario “enraizar” el modelo lo más posible en nuestra posición. Hay que “corporeizarlo” alimentándolo con un contexto estructurado, jerarquizado, expresado en los términos que la máquina requiere para generar los resultados esperados, que incluya nuestras ideas y sea representativo de nuestro juicio.


Relaciones: Cognición corporeizada, 4E, Contexto (IA), Inteligencia Artificial, Sesgos de la IA