Red de conocimientos turísticos - Conocimientos sobre calendario chino - Dejemos de debatir si la IA es "sensible": la pregunta es si podemos creerla

Dejemos de debatir si la IA es "sensible": la pregunta es si podemos creerla

El mes pasado estuvo lleno de artículos, entrevistas y otros tipos de cobertura mediática del ingeniero de Google Blake Lemoine. Lemoine le dijo al Washington Post que LaMDA, un modelo de lenguaje a gran escala creado para hablar con los usuarios, "es inteligente". Después de leer una docena de perspectivas diferentes sobre el tema, debo decir que los medios se han sentido (algo) decepcionados con la situación actual. exageración en torno a la tecnología de inteligencia artificial. Muchos artículos analizan por qué las redes neuronales profundas no son "sensibles" o "conscientes". Esto es una mejora en comparación con hace unos años, cuando los medios de comunicación creaban historias sobre sistemas de inteligencia artificial que inventaban su propio lenguaje, asumían todos los trabajos y A. Historia sensacional que acelera el avance hacia la inteligencia artificial general.

Pero el hecho de que volvamos a hablar de percepción y conciencia resalta un punto importante: nuestros sistemas de inteligencia artificial, es decir, los grandes modelos de lenguaje, son cada vez más convincentes, mientras que todavía hay científicos que ven defectos fundamentales. señalado en diferentes ocasiones. Sé que se ha hablado de "la inteligencia artificial engaña a los humanos" desde Eliza Chatbot en la década de 1960, pero el LL.M de hoy está en otro nivel. Si no sabes cómo funcionan los modelos lingüísticos, las conversaciones de Blake Lemoine con LaMDA parecen casi surrealistas, aunque están cuidadosamente seleccionadas y editadas.

Sin embargo, lo que quiero señalar aquí es que la "percepción" y la "conciencia" no son las mejores discusiones sobre el LLM y la tecnología actual de IA. Una discusión más importante será la de la compatibilidad y la confianza humanas, especialmente a medida que estas tecnologías se preparan para integrarse en las aplicaciones cotidianas.

El trabajo con redes neuronales y grandes modelos de lenguaje se discutió exhaustivamente durante la semana pasada (recomiendo leer la entrevista de Melanie Mitchell con MSNBC para aprender cómo funcionan LaMDA y otros LLM). Me gustaría entrar en más detalles, comenzando con una comparación de LLM para lenguajes humanos.

Para los humanos, el lenguaje es un medio para comunicar las activaciones complejas y multidimensionales que ocurren en el cerebro. Por ejemplo, cuando dos hermanos hablan entre sí y uno de ellos dice "mamá", la palabra se asocia con muchas activaciones en diferentes partes del cerebro, incluidos recuerdos de su voz, rostro, sentimientos y recuerdos de su voz. rostro y sentimientos desde el pasado lejano hasta el pasado (posiblemente) reciente. Unos días de experiencias diferentes. De hecho, puede haber enormes diferencias en cómo aparecen los hermanos en sus cerebros, dependiendo de sus respectivas experiencias. Sin embargo, la palabra "mamá" proporciona una aproximación comprimida y de buen comportamiento que les ayuda a estar de acuerdo en el mismo concepto.

La diferencia entre experiencia y recuerdo se vuelve aún mayor cuando utilizas la palabra "mamá" en una conversación con un extraño. Pero nuevamente, logras llegar a un acuerdo basado en los mismos conceptos que tienes en mente.

Piensa en el lenguaje como un algoritmo de compresión que ayuda a transferir grandes cantidades de información desde tu cerebro a otra persona. La evolución del lenguaje está directamente relacionada con nuestras experiencias en el mundo, desde las interacciones físicas en nuestro entorno hasta las interacciones sociales con otros humanos.

El lenguaje se basa en nuestras experiencias comunes en el mundo. Antes de que los niños pronuncien su primera palabra, aprenden sobre la gravedad de los objetos, sus dimensiones, su consistencia física y conceptos humanos y sociales como el dolor, la pena, el miedo, la familia y la amistad. Sin estas experiencias, el lenguaje no tiene significado. Por eso el lenguaje muchas veces ignora el sentido común y la información más compartida por sus interlocutores. Por otro lado, el grado en que compartas experiencias y recuerdos determinará la profundidad de tu conversación con otra persona.

Por el contrario, los modelos de lenguaje grandes no tienen experiencia física y social. Están entrenados con miles de millones de palabras y aprenden a responder a señales prediciendo la siguiente secuencia de palabras. Este es un enfoque que ha logrado grandes resultados en los últimos años, especialmente con la introducción de la arquitectura de transformadores.

¿Cómo hacen los Transformers predicciones convincentes? Convierten texto en "tokens" e "incrustaciones", representaciones matemáticas de palabras en un espacio multidimensional.

Luego procesan las incrustaciones para agregar dimensiones adicionales, como las relaciones entre palabras en una secuencia de texto y su papel en oraciones y párrafos. Con suficientes ejemplos, estas incrustaciones pueden proporcionar una buena aproximación de cómo aparecen las palabras en una secuencia. Los transformadores son particularmente populares porque son escalables: su precisión mejora a medida que crecen y se introducen más datos, y la mayoría se puede entrenar mediante aprendizaje no supervisado.

Pero la diferencia fundamental permanece. Las redes neuronales procesan el lenguaje convirtiéndolo en incrustaciones. Para los humanos, el lenguaje es un conjunto de pensamientos, sentimientos, recuerdos, experiencias físicas y muchas otras cosas que aún tenemos que descubrir sobre el cerebro.

Por eso es justo decir que a pesar de sus enormes avances y resultados impresionantes, los Transformers, los grandes modelos de lenguaje, las redes neuronales profundas, etc. aún están lejos de poder hablar nuestro idioma.

Gran parte del debate actual gira en torno a si debemos asignar atributos como la percepción, la conciencia y la personalidad a la IA. El problema con estas discusiones es que se centran en conceptos vagamente definidos que significan cosas diferentes para diferentes personas.

Por ejemplo, los funcionalistas podrían argumentar que las redes neuronales y los grandes modelos de lenguaje son conscientes porque exhiben (al menos en parte) el mismo comportamiento que se esperaría de los humanos, a pesar de que están construidos sobre bases diferentes. de. Otros podrían argumentar que la materia orgánica es necesaria para la conciencia y concluir que las redes neuronales nunca pueden ser conscientes. Puedes unirte al debate sobre los qualia, el experimento interior chino, la prueba de Turing, etc., y la discusión podría continuar para siempre.

Sin embargo, una pregunta más práctica es ¿hasta qué punto son "compatibles" las redes neuronales actuales con la mente humana y hasta qué punto podemos confiar en ellas en aplicaciones críticas? Esta es una discusión importante porque los grandes modelos de lenguaje son desarrollados principalmente por empresas que buscan convertirlos en aplicaciones comerciales.

Por ejemplo, con suficiente entrenamiento, podrías ser capaz de entrenar a un chimpancé para que conduzca un coche. ¿Pero lo pondrías al volante y en la vía por donde van a cruzarlo los peatones? No lo harás, porque sabes que no importa lo inteligentes que sean los chimpancés, no piensan como humanos y no se les puede dar la responsabilidad de asumir la seguridad humana.

Asimismo, los loros pueden aprender muchas frases. ¿Pero confiarías en él para que fuera tu agente de servicio al cliente? Probablemente no.

Incluso cuando hay seres humanos involucrados, algunos deterioros cognitivos impiden que las personas realicen ciertos trabajos y tareas que requieren interacción humana o consideran la seguridad humana. En muchos casos, estas personas pueden leer, escribir y hablar con fluidez y mantener la coherencia y la lógica en conversaciones prolongadas. No dudamos de su percepción, conciencia o personalidad. Pero sabemos que, como consecuencia de su enfermedad, sus decisiones pueden volverse inconsistentes e impredecibles (ver, por ejemplo, el caso de Phineas Gage).

Lo que importa es si puedes confiar en que esta persona piense y decida como una persona normal. En muchas situaciones, confiamos en la persona que realiza la tarea porque sabemos que sus sistemas sensoriales, sentido común, sentimientos, metas y recompensas son fundamentalmente consistentes con los nuestros, incluso si no habla nuestro idioma.

¿Qué sabemos sobre Lambda? Primero, no percibe el mundo como lo hacemos nosotros. Su "conocimiento" del lenguaje no se basa en la misma experiencia que el nuestro. Su sentido común se basa en una base inestable, ya que no hay garantía de que un vasto cuerpo de texto cubra todo lo que nos perdemos en el lenguaje.

Dada esta incompatibilidad, ¿cuánto se puede confiar en LaMDA y otros grandes modelos de lenguaje, sin importar cuán buenos sean para generar resultados de texto? Un programa de chatbot amigable y divertido puede no ser una mala idea, siempre y cuando no dirija la conversación hacia temas delicados. Los motores de búsqueda también son un gran área de aplicación para LLM (Google ha estado utilizando BERT en búsquedas durante algunos años). ¿Pero puedes confiarles tareas más delicadas? ¿Como un chatbot de servicio al cliente abierto o un asesor bancario (incluso si están capacitados o sintonizados con muchas grabaciones de conversaciones relevantes)?

Mi idea es que necesitamos puntos de referencia específicos de la aplicación para probar la coherencia de los LLM y su compatibilidad con el sentido común humano en diferentes dominios.

Cuando se trata de aplicaciones del mundo real, siempre debe haber límites claramente definidos en cuanto a dónde una conversación queda fuera del alcance de LLM y debe dejarse en manos de un operador humano.

Hace un tiempo escribí un artículo sobre "Buscadores de problemas" y "Solucionadores de problemas". Básicamente, lo que dije fue que la inteligencia humana se trata de encontrar los problemas correctos, mientras que la inteligencia artificial (o la inteligencia artificial como la tenemos hoy) se trata de resolver estos problemas de la manera más eficiente.

Hemos visto una y otra vez que los ordenadores son capaces de encontrar atajos para resolver problemas complejos sin adquirir capacidades cognitivas humanas. Hemos visto esto en damas, ajedrez, go, competiciones de programación, plegamiento de proteínas y otros problemas bien definidos.

El lenguaje natural es diferente en algunos aspectos de todos los demás problemas que resuelve la inteligencia artificial, pero también es similar. Por un lado, Transformers y LLM demuestran que pueden producir resultados impresionantes sin tener que pasar por el proceso de aprender un idioma como una persona promedio, es decir, primero explorar el mundo y comprender sus reglas básicas, y luego adquirir conocimientos basados ​​en esto. Lenguaje para interactuar con el conocimiento y con los demás. Por otro lado, carecen de la experiencia humana de aprender un idioma. Son útiles para resolver problemas relacionados con el lenguaje bien definidos. Sin embargo, no debemos olvidar que su compatibilidad con el procesamiento del lenguaje humano es limitada, por lo que debemos tener cuidado con nuestra confianza en ellos.

Este artículo fue publicado originalmente por Ben Dickson en TechTalks, una publicación que examina las tendencias tecnológicas, cómo impactan la forma en que vivimos y hacemos negocios, y los problemas que resuelven. Pero también discutimos el lado malo de la tecnología, los efectos oscuros de las nuevas tecnologías y de qué debemos tener cuidado. Puedes leer el artículo original aquí.