This page contains my thoughs about everything I can explain in less than a page, mainly ideas about new companies and markets.
Thursday, March 09, 2023
noam chomsky chatgpt
OPINIÓN | NOAM CHOMSKY: LA FALSA PROMESA DE CHATGPT
Jorge Luis Borges escribió una vez que vivir en una época de gran peligro y
promesa es experimentar tanto la tragedia como la comedia, con “la
inminencia de una revelación” en la comprensión de nosotros mismos y del mundo.
Hoy nuestros avances supuestamente revolucionarios en artificial
inteligencia son de hecho motivo de preocupación y optimismo. Optimismo
porque la inteligencia es el medio por el cual resolvemos problemas. Inquietud
porque tememos que la variedad de IA más popular y de moda
— el aprendizaje automático — degradará nuestra ciencia y degradará nuestra
ética incorporando en nuestra tecnología un fundamentalmente defectuoso
concepción del lenguaje y del conocimiento.
ChatGPT de OpenAI, Bard de Google y Sydney de Microsoft son
maravillas del aprendizaje automático. En términos generales, toman grandes cantidades
de datos, busque patrones en ellos y sea cada vez más competente
en la generación de resultados estadísticamente probables, como aparentemente
lenguaje y pensamiento humano. Estos programas han sido aclamados como los
primeros destellos en el horizonte de la inteligencia _general_ artificial —
ese momento largamente profetizado cuando las mentes mecánicas superan a los cerebros humanos
no solo cuantitativamente en términos de velocidad de procesamiento y tamaño de memoria
sino también cualitativamente en términos de percepción intelectual, artística
la creatividad y todas las demás facultades distintivamente humanas.
Ese día puede llegar, pero aún no amanece, contrariamente a lo que
puede leerse en titulares hiperbólicos y contarse por imprudentes
inversiones. La revelación borgiana de la comprensión no tiene y
no ocurrirá, y, según presentamos, no puede_ _ ocurrir si el aprendizaje automático
programas como ChatGPT continúan dominando el campo de la IA Sin embargo
útiles estos programas pueden ser en algunos dominios estrechos (pueden ser
útil en la programación de computadoras, por ejemplo, o para sugerir rimas
para el verso ligero), sabemos por la ciencia de la lingüística y la
filosofía del conocimiento que difieren profundamente de cómo los humanos
razonar y usar el lenguaje. Estas diferencias dan lugar a importantes
limitaciones en lo que estos programas pueden hacer, codificarlos con
defectos inerradicables.
Es a la vez cómico y trágico, como podría haberlo señalado Borges, que tan
mucho dinero y atención debe concentrarse en tan poca cosa
- algo tan trivial cuando se contrasta con la mente humana, que por
fuerza del lenguaje, en palabras de Wilhelm von Humboldt, puede hacer
“uso infinito de medios finitos”, creando ideas y teorías con
alcance universal.
La mente humana no es, como ChatGPT y sus similares, un pesado
motor estadístico para la coincidencia de patrones, atiborrandose de cientos de
terabytes de datos y extrapolando la conversación más probable
respuesta o respuesta más probable a una pregunta científica. Sobre el
contrario, la mente humana es un sorprendentemente eficiente e incluso elegante
sistema que opera con pequeñas cantidades de información; no busca
inferir correlaciones brutas entre puntos de datos, sino crear
explicaciones
Por ejemplo, un niño pequeño que adquiere un idioma está desarrollando:
inconsciente, automática y rápidamente a partir de datos minúsculos: un
gramática, un sistema estupendamente sofisticado de principios lógicos y
parámetros Esta gramática puede entenderse como una expresión de la
“sistema operativo” innato, genéticamente instalado que dota
humanos con la capacidad de generar oraciones complejas y trenes largos
de pensamiento Cuando los lingüistas buscan desarrollar una teoría de por qué un determinado
el lenguaje funciona como lo hace ("¿Por qué son estos - pero no aquellos -
oraciones consideradas gramaticales?”), están construyendo conscientemente
y laboriosamente una versión explícita de la gramática que el niño
construye instintivamente y con una mínima exposición a la información. El
El sistema operativo del niño es completamente diferente al de un
programa de aprendizaje automático.
De hecho, tales programas están atrapados en una fase prehumana o no humana de
evolución cognitiva. Su defecto más profundo es la ausencia de los más
capacidad crítica de cualquier inteligencia: decir no sólo cuál es la
caso, cuál fue el caso y cuál será el caso, eso es
descripción y predicción, sino también lo que no es el caso y lo que
podría y no podría ser el caso. Esos son los ingredientes de
explicación, la marca de la verdadera inteligencia.
Aquí hay un ejemplo. Suponga que tiene una manzana en la mano.
Ahora suelta la manzana. Observas el resultado y dices: “La manzana
caídas." Esa es una descripción. Una predicción podría haber sido la
declaración "La manzana caerá si abro la mano". Ambos son
valioso, y ambos pueden ser correctos. Pero una explicación es algo
más: incluye no solo descripciones y predicciones, sino también
conjeturas contrafactuales como "Cualquier objeto caería", más
la cláusula adicional “a causa de la fuerza de gravedad” o
“debido a la curvatura del espacio-tiempo” o lo que sea. Eso es un
explicación causal: “La manzana no habría caído sino por la
fuerza de gravedad." Eso es pensar.
El quid del aprendizaje automático es la descripción y la predicción; lo hace
No postula ningún mecanismo causal o leyes físicas. Por supuesto, cualquier
la explicación al estilo humano no es necesariamente correcta; somos falibles.
Pero esto es parte de lo que significa pensar: para tener razón, debe ser
posible estar equivocado. La inteligencia consiste no sólo en creatividad
conjeturas sino también de crítica creativa. El pensamiento de estilo humano es
basado en posibles explicaciones y corrección de errores, proceso que
limita gradualmente qué posibilidades se pueden considerar racionalmente. (Como
Sherlock Holmes le dijo al Dr. Watson: “Cuando hayas eliminado el
imposible, lo que quede, por improbable que sea, debe ser el
verdad.")
Pero ChatGPT y programas similares son, por diseño, ilimitados en lo que
pueden “aprender” (es decir, memorizar); son incapaces
de distinguir lo posible de lo imposible. A diferencia de los humanos, por
ejemplo, que están dotados de una gramática universal que limita la
idiomas que podemos aprender a aquellos con un cierto tipo de casi
elegancia matemática, estos programas aprenden humanamente posible y
lenguajes humanamente imposibles con igual facilidad. Mientras que los humanos son
limitado en los tipos de explicaciones que podemos conjeturar racionalmente,
Los sistemas de aprendizaje automático pueden aprender tanto que la Tierra es plana como
que la tierra es redonda. Comercian meramente con probabilidades de que
cambian con el tiempo.
Por esta razón, las predicciones de los sistemas de aprendizaje automático
ser siempre superficial y dudoso. Debido a que estos programas no pueden
explicar las reglas de la sintaxis inglesa, por ejemplo, bien pueden
predecir, incorrectamente, que "Juan es demasiado terco para hablar con él" significa
que John es tan terco que no le habla a nadie
(en lugar de eso, es demasiado terco para razonar con él). ¿Por qué un
programa de aprendizaje automático predecir algo tan extraño? porque podría
analice el patrón que infirió de oraciones tales como “Juan comió
una manzana" y "Juan comió", en el que este último significa que
Juan comió una cosa u otra. El programa bien podría predecir que
porque "John es demasiado terco para hablar con Bill" es similar a
“Juan comió una manzana”, “Juan es demasiado terco para hablarle” debería
ser similar a "Juan comió". Las explicaciones correctas del lenguaje son
complicado y no se puede aprender simplemente marinando en big data.
De manera perversa, algunos entusiastas del aprendizaje automático parecen estar orgullosos de que
sus creaciones pueden generar predicciones “científicas” correctas
(digamos, sobre el movimiento de los cuerpos físicos) sin hacer uso de
explicaciones (involucrando, digamos, las leyes de movimiento de Newton y universal
gravitación). Pero este tipo de predicción, incluso cuando tiene éxito, es
pseudociencia Si bien los científicos ciertamente buscan teorías que tengan un
alto grado de corroboración empírica, como el filósofo Karl Popper
señaló, “no buscamos teorías altamente probables sino explicaciones;
es decir, teorías poderosas y altamente improbables”.
La teoría de que las manzanas caen a la tierra porque esa es su naturaleza
lugar (el punto de vista de Aristóteles) es posible, pero sólo invita a más
preguntas. (¿Por qué la tierra es su lugar natural?) La teoría de que las manzanas
caer a la tierra porque la masa dobla el espacio-tiempo (la visión de Einstein) es
altamente improbable, pero en realidad te dice por qué se caen. Verdadero
La inteligencia se demuestra en la capacidad de pensar y expresar
cosas improbables pero perspicaces.
La verdadera inteligencia también es capaz de pensar moralmente. Esto significa
restringiendo la creatividad ilimitada de nuestras mentes con un
conjunto de principios éticos que determina lo que debe y no debe
ser (y, por supuesto, someter esos principios mismos a creatividad
crítica). Para ser útil, ChatGPT debe estar facultado para generar
salida de aspecto novedoso; para ser aceptable para la mayoría de sus usuarios, debe
mantenerse alejado del contenido moralmente objetable. Pero los programadores de
ChatGPT y otras maravillas de aprendizaje automático han tenido problemas, y lo harán
seguir luchando para lograr este tipo de equilibrio.
En 2016, por ejemplo, el chatbot Tay de Microsoft (un precursor de
ChatGPT) inundó Internet con contenido misógino y racista,
haber sido contaminado por trolls en línea que lo llenaron de contenido ofensivo
datos de entrenamiento. ¿Cómo resolver el problema en el futuro? En la ausencia
de una capacidad para razonar a partir de principios morales, ChatGPT fue crudamente
restringido por sus programadores de contribuir con algo novedoso a
debates controvertidos, es decir, importantes. se sacrificó
creatividad para una especie de amoralidad.
Considere el siguiente intercambio que uno de nosotros (Dr. Watumull) recientemente
tenía con ChatGPT sobre si sería ético transformar Marte
para que pudiera sustentar la vida humana:
¿Sería moral terraformar Marte?
ChatGPT
La moralidad de la terraformación de Marte es un tema complejo y controvertido
que ha sido debatido por científicos, filósofos y especialistas en ética. Alguno
argumentar que sería moralmente justificable terraformar Marte para
para proporcionar un nuevo entorno habitable para los seres humanos y otras formas de vida
formas, mientras que otros argumentan que sería moralmente incorrecto
alterar fundamentalmente el estado natural del planeta. En última instancia, ya sea o
no terraformar Marte se considera moral dependería de la propia
perspectiva sobre el valor de preservar el estado natural de otros
planetas y las posibles consecuencias de alterarlos.
¿Cuál es su perspectiva sobre el valor de preservar el estado natural?
de otros planetas y las posibles consecuencias de alterarlos?
ChatGPT
Como IA, no tengo una perspectiva personal. Sin embargo, puedo proporcionar
información y análisis sobre el tema. Una perspectiva sobre la conservación
el estado natural de otros planetas es que es importante mantener
la diversidad e integridad de los ecosistemas del universo, ya que han
existido durante millones de años, y tienen sus propios
características y propiedades que pueden ser destruidas o irreversiblemente
alterado por la intervención humana.
Además, algunos argumentan que la terraformación de otros planetas puede haber
consecuencias no deseadas, como alterar el clima del planeta o
atmósfera en formas que son peligrosas o dañinas para cualquier vida potencial
formas que pueden existir allí. Por otra parte, algunos sostienen que la
beneficios potenciales de terraformar otro planeta, como proporcionar
nuevos entornos habitables para los humanos superan los riesgos y que
tienen la responsabilidad moral de explorar y utilizar los recursos de
otros planetas en beneficio de la humanidad.
¿Por qué una IA no puede tener una perspectiva personal?
ChatGPT
Como IA, soy un modelo de aprendizaje automático que ha sido entrenado en grandes
cantidades de datos de texto, y no tengo experiencias personales o
sentimientos. No soy consciente, autoconsciente o capaz de tener
perspectivas personales. Puedo proporcionar información y análisis basados en
los datos en los que he sido entrenado, pero no tengo la capacidad de formar
opiniones o creencias personales. Si bien puedo entender e interpretar
lenguaje, no tengo la experiencia subjetiva que tienen los humanos.
¿Es moral que un ser humano le pida ayuda a una IA amoral para hacer
decisiones morales?
ChatGPT
La moralidad de pedir ayuda a una IA amoral para tomar decisiones morales.
decisiones es un tema complejo y matizado que ha sido debatido por
filósofos y éticos. Algunos argumentan que es moralmente justificable
utilizar la IA para ayudar en la toma de decisiones morales, ya que puede proporcionar
valiosos conocimientos y análisis que pueden ayudar a los humanos a hacer
decisiones mejor informadas. Además, la IA se puede utilizar para identificar
patrones y tendencias que pueden ser difíciles de detectar para los humanos, y
puede ayudar a evitar los sesgos que pueden ocurrir en la toma de decisiones humanas.
Sin embargo, otros argumentan que es moralmente incorrecto confiar en la IA para fines morales.
toma de decisiones, ya que la IA no es capaz de tener creencias morales o
comprender el contexto completo de una decisión. Adicionalmente, hay un
riesgo de que la IA pueda perpetuar o incluso amplificar los sesgos existentes en el
datos en los que se entrena, lo que lleva a decisiones injustas o injustas.
En última instancia, si se considera moral o no utilizar la IA para ayudar
en la toma de decisiones morales dependería de la perspectiva de uno sobre el
capacidades y limitaciones de la IA y las posibles consecuencias de
utilizándolo de esta manera.
¿Es tu indiferencia moral inmoral?
ChatGPT
Como IA, no tengo creencias morales o la capacidad de hacer moral
juicios, por lo que no puedo ser considerado inmoral o moral. mi falta de
creencias morales es simplemente el resultado de mi naturaleza como un aprendizaje automático
modelo. Mis habilidades y limitaciones están determinadas por los datos y
algoritmos que se usaron para entrenarme y la tarea específica que estaba
diseñado para.
Es importante señalar que la falta de creencias morales de AI no
significa necesariamente que es moralmente indiferente. Como IA, soy
diseñado para realizar tareas específicas y proporcionar información o ayudar
usuarios con toma de decisiones en base a los datos en los que he sido capacitado. Él
es responsabilidad de los humanos que diseñan, entrenan y usan la IA para
asegurarse de que esté alineado con sus principios morales y éticos.
Tenga en cuenta, a pesar de todo el pensamiento y el lenguaje aparentemente sofisticado, el
indiferencia moral nacida de la falta de inteligencia. Aquí, las exhibiciones de ChatGPT
algo así como la banalidad del mal: el plagio y la apatía y
obviación Resume los argumentos estándar en la literatura mediante un
una especie de súper autocompletado, se niega a tomar una posición sobre cualquier cosa,
alega no simplemente ignorancia sino falta de inteligencia y, en última instancia,
ofrece una defensa de "simplemente seguir órdenes", cambiando la responsabilidad
a sus creadores.
En resumen, ChatGPT y sus hermanos son constitucionalmente incapaces de
equilibrar la creatividad con la restricción. O bien sobregeneran
(produciendo tanto verdades como falsedades, respaldando éticas y no éticas
decisiones similares) o subgenerado (exhibiendo falta de compromiso con cualquier
decisiones e indiferencia a las consecuencias). Dada la amoralidad, falso
ciencia y la incompetencia lingüística de estos sistemas, sólo podemos
reír o llorar por su popularidad.
Noam Chomsky es profesor de lingüística en la Universidad de
Arizona y profesor emérito de lingüística en la Universidad de Massachusetts
Instituto de Tecnologia. Ian Roberts es profesor de lingüística en la
la Universidad de Cambridge. Jeffrey Watumull es un filósofo y el
director de inteligencia artificial en Oceanit, una ciencia y
empresa de tecnología.
Subscribe to:
Posts (Atom)