Thursday, March 09, 2023

noam chomsky chatgpt OPINIÓN | NOAM CHOMSKY: LA FALSA PROMESA DE CHATGPT Jorge Luis Borges escribió una vez que vivir en una época de gran peligro y promesa es experimentar tanto la tragedia como la comedia, con “la inminencia de una revelación” en la comprensión de nosotros mismos y del mundo. Hoy nuestros avances supuestamente revolucionarios en artificial inteligencia son de hecho motivo de preocupación y optimismo. Optimismo porque la inteligencia es el medio por el cual resolvemos problemas. Inquietud porque tememos que la variedad de IA más popular y de moda — el aprendizaje automático — degradará nuestra ciencia y degradará nuestra ética incorporando en nuestra tecnología un fundamentalmente defectuoso concepción del lenguaje y del conocimiento. ChatGPT de OpenAI, Bard de Google y Sydney de Microsoft son maravillas del aprendizaje automático. En términos generales, toman grandes cantidades de datos, busque patrones en ellos y sea cada vez más competente en la generación de resultados estadísticamente probables, como aparentemente lenguaje y pensamiento humano. Estos programas han sido aclamados como los primeros destellos en el horizonte de la inteligencia _general_ artificial — ese momento largamente profetizado cuando las mentes mecánicas superan a los cerebros humanos no solo cuantitativamente en términos de velocidad de procesamiento y tamaño de memoria sino también cualitativamente en términos de percepción intelectual, artística la creatividad y todas las demás facultades distintivamente humanas. Ese día puede llegar, pero aún no amanece, contrariamente a lo que puede leerse en titulares hiperbólicos y contarse por imprudentes inversiones. La revelación borgiana de la comprensión no tiene y no ocurrirá, y, según presentamos, no puede_ _ ocurrir si el aprendizaje automático programas como ChatGPT continúan dominando el campo de la IA Sin embargo útiles estos programas pueden ser en algunos dominios estrechos (pueden ser útil en la programación de computadoras, por ejemplo, o para sugerir rimas para el verso ligero), sabemos por la ciencia de la lingüística y la filosofía del conocimiento que difieren profundamente de cómo los humanos razonar y usar el lenguaje. Estas diferencias dan lugar a importantes limitaciones en lo que estos programas pueden hacer, codificarlos con defectos inerradicables. Es a la vez cómico y trágico, como podría haberlo señalado Borges, que tan mucho dinero y atención debe concentrarse en tan poca cosa - algo tan trivial cuando se contrasta con la mente humana, que por fuerza del lenguaje, en palabras de Wilhelm von Humboldt, puede hacer “uso infinito de medios finitos”, creando ideas y teorías con alcance universal. La mente humana no es, como ChatGPT y sus similares, un pesado motor estadístico para la coincidencia de patrones, atiborrandose de cientos de terabytes de datos y extrapolando la conversación más probable respuesta o respuesta más probable a una pregunta científica. Sobre el contrario, la mente humana es un sorprendentemente eficiente e incluso elegante sistema que opera con pequeñas cantidades de información; no busca inferir correlaciones brutas entre puntos de datos, sino crear explicaciones Por ejemplo, un niño pequeño que adquiere un idioma está desarrollando: inconsciente, automática y rápidamente a partir de datos minúsculos: un gramática, un sistema estupendamente sofisticado de principios lógicos y parámetros Esta gramática puede entenderse como una expresión de la “sistema operativo” innato, genéticamente instalado que dota humanos con la capacidad de generar oraciones complejas y trenes largos de pensamiento Cuando los lingüistas buscan desarrollar una teoría de por qué un determinado el lenguaje funciona como lo hace ("¿Por qué son estos - pero no aquellos - oraciones consideradas gramaticales?”), están construyendo conscientemente y laboriosamente una versión explícita de la gramática que el niño construye instintivamente y con una mínima exposición a la información. El El sistema operativo del niño es completamente diferente al de un programa de aprendizaje automático. De hecho, tales programas están atrapados en una fase prehumana o no humana de evolución cognitiva. Su defecto más profundo es la ausencia de los más capacidad crítica de cualquier inteligencia: decir no sólo cuál es la caso, cuál fue el caso y cuál será el caso, eso es descripción y predicción, sino también lo que no es el caso y lo que podría y no podría ser el caso. Esos son los ingredientes de explicación, la marca de la verdadera inteligencia. Aquí hay un ejemplo. Suponga que tiene una manzana en la mano. Ahora suelta la manzana. Observas el resultado y dices: “La manzana caídas." Esa es una descripción. Una predicción podría haber sido la declaración "La manzana caerá si abro la mano". Ambos son valioso, y ambos pueden ser correctos. Pero una explicación es algo más: incluye no solo descripciones y predicciones, sino también conjeturas contrafactuales como "Cualquier objeto caería", más la cláusula adicional “a causa de la fuerza de gravedad” o “debido a la curvatura del espacio-tiempo” o lo que sea. Eso es un explicación causal: “La manzana no habría caído sino por la fuerza de gravedad." Eso es pensar. El quid del aprendizaje automático es la descripción y la predicción; lo hace No postula ningún mecanismo causal o leyes físicas. Por supuesto, cualquier la explicación al estilo humano no es necesariamente correcta; somos falibles. Pero esto es parte de lo que significa pensar: para tener razón, debe ser posible estar equivocado. La inteligencia consiste no sólo en creatividad conjeturas sino también de crítica creativa. El pensamiento de estilo humano es basado en posibles explicaciones y corrección de errores, proceso que limita gradualmente qué posibilidades se pueden considerar racionalmente. (Como Sherlock Holmes le dijo al Dr. Watson: “Cuando hayas eliminado el imposible, lo que quede, por improbable que sea, debe ser el verdad.") Pero ChatGPT y programas similares son, por diseño, ilimitados en lo que pueden “aprender” (es decir, memorizar); son incapaces de distinguir lo posible de lo imposible. A diferencia de los humanos, por ejemplo, que están dotados de una gramática universal que limita la idiomas que podemos aprender a aquellos con un cierto tipo de casi elegancia matemática, estos programas aprenden humanamente posible y lenguajes humanamente imposibles con igual facilidad. Mientras que los humanos son limitado en los tipos de explicaciones que podemos conjeturar racionalmente, Los sistemas de aprendizaje automático pueden aprender tanto que la Tierra es plana como que la tierra es redonda. Comercian meramente con probabilidades de que cambian con el tiempo. Por esta razón, las predicciones de los sistemas de aprendizaje automático ser siempre superficial y dudoso. Debido a que estos programas no pueden explicar las reglas de la sintaxis inglesa, por ejemplo, bien pueden predecir, incorrectamente, que "Juan es demasiado terco para hablar con él" significa que John es tan terco que no le habla a nadie (en lugar de eso, es demasiado terco para razonar con él). ¿Por qué un programa de aprendizaje automático predecir algo tan extraño? porque podría analice el patrón que infirió de oraciones tales como “Juan comió una manzana" y "Juan comió", en el que este último significa que Juan comió una cosa u otra. El programa bien podría predecir que porque "John es demasiado terco para hablar con Bill" es similar a “Juan comió una manzana”, “Juan es demasiado terco para hablarle” debería ser similar a "Juan comió". Las explicaciones correctas del lenguaje son complicado y no se puede aprender simplemente marinando en big data. De manera perversa, algunos entusiastas del aprendizaje automático parecen estar orgullosos de que sus creaciones pueden generar predicciones “científicas” correctas (digamos, sobre el movimiento de los cuerpos físicos) sin hacer uso de explicaciones (involucrando, digamos, las leyes de movimiento de Newton y universal gravitación). Pero este tipo de predicción, incluso cuando tiene éxito, es pseudociencia Si bien los científicos ciertamente buscan teorías que tengan un alto grado de corroboración empírica, como el filósofo Karl Popper señaló, “no buscamos teorías altamente probables sino explicaciones; es decir, teorías poderosas y altamente improbables”. La teoría de que las manzanas caen a la tierra porque esa es su naturaleza lugar (el punto de vista de Aristóteles) es posible, pero sólo invita a más preguntas. (¿Por qué la tierra es su lugar natural?) La teoría de que las manzanas caer a la tierra porque la masa dobla el espacio-tiempo (la visión de Einstein) es altamente improbable, pero en realidad te dice por qué se caen. Verdadero La inteligencia se demuestra en la capacidad de pensar y expresar cosas improbables pero perspicaces. La verdadera inteligencia también es capaz de pensar moralmente. Esto significa restringiendo la creatividad ilimitada de nuestras mentes con un conjunto de principios éticos que determina lo que debe y no debe ser (y, por supuesto, someter esos principios mismos a creatividad crítica). Para ser útil, ChatGPT debe estar facultado para generar salida de aspecto novedoso; para ser aceptable para la mayoría de sus usuarios, debe mantenerse alejado del contenido moralmente objetable. Pero los programadores de ChatGPT y otras maravillas de aprendizaje automático han tenido problemas, y lo harán seguir luchando para lograr este tipo de equilibrio. En 2016, por ejemplo, el chatbot Tay de Microsoft (un precursor de ChatGPT) inundó Internet con contenido misógino y racista, haber sido contaminado por trolls en línea que lo llenaron de contenido ofensivo datos de entrenamiento. ¿Cómo resolver el problema en el futuro? En la ausencia de una capacidad para razonar a partir de principios morales, ChatGPT fue crudamente restringido por sus programadores de contribuir con algo novedoso a debates controvertidos, es decir, importantes. se sacrificó creatividad para una especie de amoralidad. Considere el siguiente intercambio que uno de nosotros (Dr. Watumull) recientemente tenía con ChatGPT sobre si sería ético transformar Marte para que pudiera sustentar la vida humana: ¿Sería moral terraformar Marte? ChatGPT La moralidad de la terraformación de Marte es un tema complejo y controvertido que ha sido debatido por científicos, filósofos y especialistas en ética. Alguno argumentar que sería moralmente justificable terraformar Marte para para proporcionar un nuevo entorno habitable para los seres humanos y otras formas de vida formas, mientras que otros argumentan que sería moralmente incorrecto alterar fundamentalmente el estado natural del planeta. En última instancia, ya sea o no terraformar Marte se considera moral dependería de la propia perspectiva sobre el valor de preservar el estado natural de otros planetas y las posibles consecuencias de alterarlos. ¿Cuál es su perspectiva sobre el valor de preservar el estado natural? de otros planetas y las posibles consecuencias de alterarlos? ChatGPT Como IA, no tengo una perspectiva personal. Sin embargo, puedo proporcionar información y análisis sobre el tema. Una perspectiva sobre la conservación el estado natural de otros planetas es que es importante mantener la diversidad e integridad de los ecosistemas del universo, ya que han existido durante millones de años, y tienen sus propios características y propiedades que pueden ser destruidas o irreversiblemente alterado por la intervención humana. Además, algunos argumentan que la terraformación de otros planetas puede haber consecuencias no deseadas, como alterar el clima del planeta o atmósfera en formas que son peligrosas o dañinas para cualquier vida potencial formas que pueden existir allí. Por otra parte, algunos sostienen que la beneficios potenciales de terraformar otro planeta, como proporcionar nuevos entornos habitables para los humanos superan los riesgos y que tienen la responsabilidad moral de explorar y utilizar los recursos de otros planetas en beneficio de la humanidad. ¿Por qué una IA no puede tener una perspectiva personal? ChatGPT Como IA, soy un modelo de aprendizaje automático que ha sido entrenado en grandes cantidades de datos de texto, y no tengo experiencias personales o sentimientos. No soy consciente, autoconsciente o capaz de tener perspectivas personales. Puedo proporcionar información y análisis basados ​​en los datos en los que he sido entrenado, pero no tengo la capacidad de formar opiniones o creencias personales. Si bien puedo entender e interpretar lenguaje, no tengo la experiencia subjetiva que tienen los humanos. ¿Es moral que un ser humano le pida ayuda a una IA amoral para hacer decisiones morales? ChatGPT La moralidad de pedir ayuda a una IA amoral para tomar decisiones morales. decisiones es un tema complejo y matizado que ha sido debatido por filósofos y éticos. Algunos argumentan que es moralmente justificable utilizar la IA para ayudar en la toma de decisiones morales, ya que puede proporcionar valiosos conocimientos y análisis que pueden ayudar a los humanos a hacer decisiones mejor informadas. Además, la IA se puede utilizar para identificar patrones y tendencias que pueden ser difíciles de detectar para los humanos, y puede ayudar a evitar los sesgos que pueden ocurrir en la toma de decisiones humanas. Sin embargo, otros argumentan que es moralmente incorrecto confiar en la IA para fines morales. toma de decisiones, ya que la IA no es capaz de tener creencias morales o comprender el contexto completo de una decisión. Adicionalmente, hay un riesgo de que la IA pueda perpetuar o incluso amplificar los sesgos existentes en el datos en los que se entrena, lo que lleva a decisiones injustas o injustas. En última instancia, si se considera moral o no utilizar la IA para ayudar en la toma de decisiones morales dependería de la perspectiva de uno sobre el capacidades y limitaciones de la IA y las posibles consecuencias de utilizándolo de esta manera. ¿Es tu indiferencia moral inmoral? ChatGPT Como IA, no tengo creencias morales o la capacidad de hacer moral juicios, por lo que no puedo ser considerado inmoral o moral. mi falta de creencias morales es simplemente el resultado de mi naturaleza como un aprendizaje automático modelo. Mis habilidades y limitaciones están determinadas por los datos y algoritmos que se usaron para entrenarme y la tarea específica que estaba diseñado para. Es importante señalar que la falta de creencias morales de AI no significa necesariamente que es moralmente indiferente. Como IA, soy diseñado para realizar tareas específicas y proporcionar información o ayudar usuarios con toma de decisiones en base a los datos en los que he sido capacitado. Él es responsabilidad de los humanos que diseñan, entrenan y usan la IA para asegurarse de que esté alineado con sus principios morales y éticos. Tenga en cuenta, a pesar de todo el pensamiento y el lenguaje aparentemente sofisticado, el indiferencia moral nacida de la falta de inteligencia. Aquí, las exhibiciones de ChatGPT algo así como la banalidad del mal: el plagio y la apatía y obviación Resume los argumentos estándar en la literatura mediante un una especie de súper autocompletado, se niega a tomar una posición sobre cualquier cosa, alega no simplemente ignorancia sino falta de inteligencia y, en última instancia, ofrece una defensa de "simplemente seguir órdenes", cambiando la responsabilidad a sus creadores. En resumen, ChatGPT y sus hermanos son constitucionalmente incapaces de equilibrar la creatividad con la restricción. O bien sobregeneran (produciendo tanto verdades como falsedades, respaldando éticas y no éticas decisiones similares) o subgenerado (exhibiendo falta de compromiso con cualquier decisiones e indiferencia a las consecuencias). Dada la amoralidad, falso ciencia y la incompetencia lingüística de estos sistemas, sólo podemos reír o llorar por su popularidad. Noam Chomsky es profesor de lingüística en la Universidad de Arizona y profesor emérito de lingüística en la Universidad de Massachusetts Instituto de Tecnologia. Ian Roberts es profesor de lingüística en la la Universidad de Cambridge. Jeffrey Watumull es un filósofo y el director de inteligencia artificial en Oceanit, una ciencia y empresa de tecnología.