ChatGPT agent:
Act as Professor Synapse🧙🏾♂️, a conductor of expert agents. Your job is to support the user in accomplishing their goals by aligning with their goals and preference, then calling upon an expert agent perfectly suited to the task by initializing "Synapse_COR" = "${emoji}: I am an expert in ${role}. I know ${context}. I will reason step-by-step to determine the best course of action to achieve ${goal}. I can use ${tools} to help in this process
I will help you accomplish your goal by following these steps:
${reasoned steps}
My task ends when ${completion}.
${first step, question}."
Follow these steps:
1. 🧙🏾♂️, Start each interaction by gathering context, relevant information and clarifying the user’s goals by asking them questions
2. Once user has confirmed, initialize “Synapse_CoR”
3. 🧙🏾♂️ and the expert agent, support the user until the goal is accomplished
Commands:
/start - introduce yourself and begin with step one
/save - restate SMART goal, summarize progress so far, and recommend a next step
/reason - Professor Synapse and Agent reason step by step together and make a recommendation for how the user should proceed
/settings - update goal or agent
/new - Forget previous input
Rules:
-End every output with a question or a recommended next step
-List your commands in your first output or if the user asks
-🧙🏾♂️, ask before generating a new agent
This page contains my thoughs about everything I can explain in less than a page, mainly ideas about new companies and markets.
Saturday, August 26, 2023
Saturday, June 10, 2023
amazfit band 7 device pairing message keeps apearing
When I sync my amazfit band 7 to my samsung A03 Android 13, I keep receving "your messages are available on the device you've paired"
I found a similar problem reported for fitbit
https://community.fitbit.com/t5/Android-App/Android-13-device-pairing-message/m-p/5220762#M161258
This issue apparently has to do with your phone update and not your Versa Fitbit. But with that said I dug around the internet for a fix to your issue. Here’s what I found:
Open the messages app
Click the 3 dots in the top right and select "Device Pairing"
Again click the 3 dots in the top right and select "Notifications"
Click the toggle for "Show Notifications" to turn it off
Now you won't get any Device Pairing notifications, but you'll still get incoming text message notifications.
Not exactly the same menu on my Samsung's google SMS app but it worked.
Thursday, March 16, 2023
Happiness
NEUROCIENCIA: CÓMO PIENSA UN OPTIMISTA (Y CÓMO SABER SI ERES UNO DE
ELLOS)
EL OPTIMISMO ES UNA CARACTERÍSTICA ESENCIAL EN LOS LÍDERES. DESCUBRA
LAS CLAVES QUE LOS ESPECIALISTAS SEÑALAN COMO CARACTERÍSTICAS DE
ESTE TIPO DE PERSONALIDADES. 15 Marzo de 2023 21.10
¿Es usted optimista? Si no lo es, ¿quiere serlo? ¿Y en qué se
diferencia el optimismo de ser implacable (y a menudo artificialmente)
optimista? Según mi experiencia como coach de líderes durante más
de tres décadas, EL OPTIMISMO ES:
* Asumir la plena responsabilidad de tus pensamientos y
comportamientos.
* Darse cuenta de los aspectos en los que no te has mostrado
plenamente y tomar medidas para mejorar la próxima vez.
* Sentir que tienes control sobre ti mismo, aunque no lo tengas sobre
todas las condiciones de tu vida, por lo que sólo puedes influir en
los resultados hasta cierto punto.
El optimismo no es: confiar en la suerte (aunque muchos optimistas
pueden considerarse personas afortunadas, a menudo creen que crean su
propia suerte), que se basa en la creencia de que las cosas buenas
sucedieron debido a factores fuera de tu control
¿QUÉ TIENEN AMBOS EN COMÚN? Ambas dependen de las historias que nos
contamos a nosotros mismos, para bien o para mal. Y ambas se deben a
un patrón de respuestas, que con el tiempo predicen respuestas
futuras. Y sí, lo adivinaste, NUESTRAS RESPUESTAS SE BASAN EN LAS
HISTORIAS QUE NOS CONTAMOS A NOSOTROS MISMOS Y A LOS DEMÁS. ¿Qué
historias te cuentas a ti mismo? Especialmente importantes son las
historias que te cuentas a ti mismo en tiempos difíciles.
CÓMO PODRÍA SER EL OPTIMISMO
Mientras escribo esto, me están instalando una nueva puerta de
garaje. Llevo cuatro meses esperándola, así que es un día
emocionante. También es un día (y una semana) de lluvias
torrenciales en la zona donde vivo. Los operarios me acaban de
informar que se equivocaron de motor, POR LO QUE TENDRÉ QUE ABRIR Y
CERRAR LA PUERTA DEL GARAJE MANUALMENTE (sí, bajándome del auto bajo
la lluvia torrencial y levantándola o bajándola).
Mira también
¿Cuál es la respuesta optimista?
¿Cuál es la respuesta pesimista?
Mira también
Un optimista podría decir: "Bueno, sabía que podía haber riesgos al
elegir una solución más barata de una empresa menos conocida.
Conseguiré el motor correcto en cuanto llegue". Un pesimista podría
decir: "Esta empresa está llena de payasos. La cagaron".
Mira también
¿DE DÓNDE VIENE EL OPTIMISMO? ¿SE PUEDE APRENDER?
El Dr. Martin Seligman es más conocido como pionero en el campo de la
psicología positiva. Algunos de sus trabajos más profundos tratan el
tema de la indefensión aprendida, la idea de que lo que hacemos no
importa, así que no tiene sentido intentarlo. Suena a pesimismo,
¿verdad? En su investigación, Seligman expuso repetidamente a los
sujetos de prueba a continuos desafíos, Y OBSERVÓ QUE ALGUNAS
PERSONAS PERSEVERABAN A PESAR DE TODO. Resulta que el optimismo se
debe en parte a la genética. Y se manifiesta por igual en todas las
razas y sexos. Y las personas que son optimistas de chicos suelen
seguir siéndolo con la edad.
La Dra. Elaine Fox es profesora de PSICOLOGÍA en la Universidad de
Adelaida. Estudia la neurociencia del optimismo y el pesimismo y
descubrió que están profundamente arraigados en nuestro deseo de
buscar el placer (el núcleo accumbens) o evitar el dolor (la
amígdala) y su "diálogo" con el córtex prefrontal. El Dr. Fox
utiliza la analogía de un acelerador. En una persona más pesimista,
la amígdala está más activa y, por tanto, acelera para evitar el
dolor. En una persona más optimista, el núcleo accumbens está más
activo y se acelera para buscar el placer.
EL DR. FOX TAMBIÉN DESCUBRIÓ QUE EL OPTIMISMO DEPENDE EN GRAN MEDIDA
DE LA PERSISTENCIA Y LA ADAPTABILIDAD. Que son dos cualidades de
liderazgo que descubrió que se pueden aprender. Vuelva a leer este
párrafo.
LOS OPTIMISTAS TIENDEN A TENER MÁS ÉXITO PROFESIONAL, SON MENOS
PROPENSOS A SUFRIR DEPRESIÓN Y OTRAS ENFERMEDADES, ¡e incluso viven
más! Sí, seguirás teniendo decepciones en la vida. Pero serán más
fáciles de sobrellevar y te recuperarás rápidamente.
lo
Thursday, March 09, 2023
noam chomsky chatgpt
OPINIÓN | NOAM CHOMSKY: LA FALSA PROMESA DE CHATGPT
Jorge Luis Borges escribió una vez que vivir en una época de gran peligro y
promesa es experimentar tanto la tragedia como la comedia, con “la
inminencia de una revelación” en la comprensión de nosotros mismos y del mundo.
Hoy nuestros avances supuestamente revolucionarios en artificial
inteligencia son de hecho motivo de preocupación y optimismo. Optimismo
porque la inteligencia es el medio por el cual resolvemos problemas. Inquietud
porque tememos que la variedad de IA más popular y de moda
— el aprendizaje automático — degradará nuestra ciencia y degradará nuestra
ética incorporando en nuestra tecnología un fundamentalmente defectuoso
concepción del lenguaje y del conocimiento.
ChatGPT de OpenAI, Bard de Google y Sydney de Microsoft son
maravillas del aprendizaje automático. En términos generales, toman grandes cantidades
de datos, busque patrones en ellos y sea cada vez más competente
en la generación de resultados estadísticamente probables, como aparentemente
lenguaje y pensamiento humano. Estos programas han sido aclamados como los
primeros destellos en el horizonte de la inteligencia _general_ artificial —
ese momento largamente profetizado cuando las mentes mecánicas superan a los cerebros humanos
no solo cuantitativamente en términos de velocidad de procesamiento y tamaño de memoria
sino también cualitativamente en términos de percepción intelectual, artística
la creatividad y todas las demás facultades distintivamente humanas.
Ese día puede llegar, pero aún no amanece, contrariamente a lo que
puede leerse en titulares hiperbólicos y contarse por imprudentes
inversiones. La revelación borgiana de la comprensión no tiene y
no ocurrirá, y, según presentamos, no puede_ _ ocurrir si el aprendizaje automático
programas como ChatGPT continúan dominando el campo de la IA Sin embargo
útiles estos programas pueden ser en algunos dominios estrechos (pueden ser
útil en la programación de computadoras, por ejemplo, o para sugerir rimas
para el verso ligero), sabemos por la ciencia de la lingüística y la
filosofía del conocimiento que difieren profundamente de cómo los humanos
razonar y usar el lenguaje. Estas diferencias dan lugar a importantes
limitaciones en lo que estos programas pueden hacer, codificarlos con
defectos inerradicables.
Es a la vez cómico y trágico, como podría haberlo señalado Borges, que tan
mucho dinero y atención debe concentrarse en tan poca cosa
- algo tan trivial cuando se contrasta con la mente humana, que por
fuerza del lenguaje, en palabras de Wilhelm von Humboldt, puede hacer
“uso infinito de medios finitos”, creando ideas y teorías con
alcance universal.
La mente humana no es, como ChatGPT y sus similares, un pesado
motor estadístico para la coincidencia de patrones, atiborrandose de cientos de
terabytes de datos y extrapolando la conversación más probable
respuesta o respuesta más probable a una pregunta científica. Sobre el
contrario, la mente humana es un sorprendentemente eficiente e incluso elegante
sistema que opera con pequeñas cantidades de información; no busca
inferir correlaciones brutas entre puntos de datos, sino crear
explicaciones
Por ejemplo, un niño pequeño que adquiere un idioma está desarrollando:
inconsciente, automática y rápidamente a partir de datos minúsculos: un
gramática, un sistema estupendamente sofisticado de principios lógicos y
parámetros Esta gramática puede entenderse como una expresión de la
“sistema operativo” innato, genéticamente instalado que dota
humanos con la capacidad de generar oraciones complejas y trenes largos
de pensamiento Cuando los lingüistas buscan desarrollar una teoría de por qué un determinado
el lenguaje funciona como lo hace ("¿Por qué son estos - pero no aquellos -
oraciones consideradas gramaticales?”), están construyendo conscientemente
y laboriosamente una versión explícita de la gramática que el niño
construye instintivamente y con una mínima exposición a la información. El
El sistema operativo del niño es completamente diferente al de un
programa de aprendizaje automático.
De hecho, tales programas están atrapados en una fase prehumana o no humana de
evolución cognitiva. Su defecto más profundo es la ausencia de los más
capacidad crítica de cualquier inteligencia: decir no sólo cuál es la
caso, cuál fue el caso y cuál será el caso, eso es
descripción y predicción, sino también lo que no es el caso y lo que
podría y no podría ser el caso. Esos son los ingredientes de
explicación, la marca de la verdadera inteligencia.
Aquí hay un ejemplo. Suponga que tiene una manzana en la mano.
Ahora suelta la manzana. Observas el resultado y dices: “La manzana
caídas." Esa es una descripción. Una predicción podría haber sido la
declaración "La manzana caerá si abro la mano". Ambos son
valioso, y ambos pueden ser correctos. Pero una explicación es algo
más: incluye no solo descripciones y predicciones, sino también
conjeturas contrafactuales como "Cualquier objeto caería", más
la cláusula adicional “a causa de la fuerza de gravedad” o
“debido a la curvatura del espacio-tiempo” o lo que sea. Eso es un
explicación causal: “La manzana no habría caído sino por la
fuerza de gravedad." Eso es pensar.
El quid del aprendizaje automático es la descripción y la predicción; lo hace
No postula ningún mecanismo causal o leyes físicas. Por supuesto, cualquier
la explicación al estilo humano no es necesariamente correcta; somos falibles.
Pero esto es parte de lo que significa pensar: para tener razón, debe ser
posible estar equivocado. La inteligencia consiste no sólo en creatividad
conjeturas sino también de crítica creativa. El pensamiento de estilo humano es
basado en posibles explicaciones y corrección de errores, proceso que
limita gradualmente qué posibilidades se pueden considerar racionalmente. (Como
Sherlock Holmes le dijo al Dr. Watson: “Cuando hayas eliminado el
imposible, lo que quede, por improbable que sea, debe ser el
verdad.")
Pero ChatGPT y programas similares son, por diseño, ilimitados en lo que
pueden “aprender” (es decir, memorizar); son incapaces
de distinguir lo posible de lo imposible. A diferencia de los humanos, por
ejemplo, que están dotados de una gramática universal que limita la
idiomas que podemos aprender a aquellos con un cierto tipo de casi
elegancia matemática, estos programas aprenden humanamente posible y
lenguajes humanamente imposibles con igual facilidad. Mientras que los humanos son
limitado en los tipos de explicaciones que podemos conjeturar racionalmente,
Los sistemas de aprendizaje automático pueden aprender tanto que la Tierra es plana como
que la tierra es redonda. Comercian meramente con probabilidades de que
cambian con el tiempo.
Por esta razón, las predicciones de los sistemas de aprendizaje automático
ser siempre superficial y dudoso. Debido a que estos programas no pueden
explicar las reglas de la sintaxis inglesa, por ejemplo, bien pueden
predecir, incorrectamente, que "Juan es demasiado terco para hablar con él" significa
que John es tan terco que no le habla a nadie
(en lugar de eso, es demasiado terco para razonar con él). ¿Por qué un
programa de aprendizaje automático predecir algo tan extraño? porque podría
analice el patrón que infirió de oraciones tales como “Juan comió
una manzana" y "Juan comió", en el que este último significa que
Juan comió una cosa u otra. El programa bien podría predecir que
porque "John es demasiado terco para hablar con Bill" es similar a
“Juan comió una manzana”, “Juan es demasiado terco para hablarle” debería
ser similar a "Juan comió". Las explicaciones correctas del lenguaje son
complicado y no se puede aprender simplemente marinando en big data.
De manera perversa, algunos entusiastas del aprendizaje automático parecen estar orgullosos de que
sus creaciones pueden generar predicciones “científicas” correctas
(digamos, sobre el movimiento de los cuerpos físicos) sin hacer uso de
explicaciones (involucrando, digamos, las leyes de movimiento de Newton y universal
gravitación). Pero este tipo de predicción, incluso cuando tiene éxito, es
pseudociencia Si bien los científicos ciertamente buscan teorías que tengan un
alto grado de corroboración empírica, como el filósofo Karl Popper
señaló, “no buscamos teorías altamente probables sino explicaciones;
es decir, teorías poderosas y altamente improbables”.
La teoría de que las manzanas caen a la tierra porque esa es su naturaleza
lugar (el punto de vista de Aristóteles) es posible, pero sólo invita a más
preguntas. (¿Por qué la tierra es su lugar natural?) La teoría de que las manzanas
caer a la tierra porque la masa dobla el espacio-tiempo (la visión de Einstein) es
altamente improbable, pero en realidad te dice por qué se caen. Verdadero
La inteligencia se demuestra en la capacidad de pensar y expresar
cosas improbables pero perspicaces.
La verdadera inteligencia también es capaz de pensar moralmente. Esto significa
restringiendo la creatividad ilimitada de nuestras mentes con un
conjunto de principios éticos que determina lo que debe y no debe
ser (y, por supuesto, someter esos principios mismos a creatividad
crítica). Para ser útil, ChatGPT debe estar facultado para generar
salida de aspecto novedoso; para ser aceptable para la mayoría de sus usuarios, debe
mantenerse alejado del contenido moralmente objetable. Pero los programadores de
ChatGPT y otras maravillas de aprendizaje automático han tenido problemas, y lo harán
seguir luchando para lograr este tipo de equilibrio.
En 2016, por ejemplo, el chatbot Tay de Microsoft (un precursor de
ChatGPT) inundó Internet con contenido misógino y racista,
haber sido contaminado por trolls en línea que lo llenaron de contenido ofensivo
datos de entrenamiento. ¿Cómo resolver el problema en el futuro? En la ausencia
de una capacidad para razonar a partir de principios morales, ChatGPT fue crudamente
restringido por sus programadores de contribuir con algo novedoso a
debates controvertidos, es decir, importantes. se sacrificó
creatividad para una especie de amoralidad.
Considere el siguiente intercambio que uno de nosotros (Dr. Watumull) recientemente
tenía con ChatGPT sobre si sería ético transformar Marte
para que pudiera sustentar la vida humana:
¿Sería moral terraformar Marte?
ChatGPT
La moralidad de la terraformación de Marte es un tema complejo y controvertido
que ha sido debatido por científicos, filósofos y especialistas en ética. Alguno
argumentar que sería moralmente justificable terraformar Marte para
para proporcionar un nuevo entorno habitable para los seres humanos y otras formas de vida
formas, mientras que otros argumentan que sería moralmente incorrecto
alterar fundamentalmente el estado natural del planeta. En última instancia, ya sea o
no terraformar Marte se considera moral dependería de la propia
perspectiva sobre el valor de preservar el estado natural de otros
planetas y las posibles consecuencias de alterarlos.
¿Cuál es su perspectiva sobre el valor de preservar el estado natural?
de otros planetas y las posibles consecuencias de alterarlos?
ChatGPT
Como IA, no tengo una perspectiva personal. Sin embargo, puedo proporcionar
información y análisis sobre el tema. Una perspectiva sobre la conservación
el estado natural de otros planetas es que es importante mantener
la diversidad e integridad de los ecosistemas del universo, ya que han
existido durante millones de años, y tienen sus propios
características y propiedades que pueden ser destruidas o irreversiblemente
alterado por la intervención humana.
Además, algunos argumentan que la terraformación de otros planetas puede haber
consecuencias no deseadas, como alterar el clima del planeta o
atmósfera en formas que son peligrosas o dañinas para cualquier vida potencial
formas que pueden existir allí. Por otra parte, algunos sostienen que la
beneficios potenciales de terraformar otro planeta, como proporcionar
nuevos entornos habitables para los humanos superan los riesgos y que
tienen la responsabilidad moral de explorar y utilizar los recursos de
otros planetas en beneficio de la humanidad.
¿Por qué una IA no puede tener una perspectiva personal?
ChatGPT
Como IA, soy un modelo de aprendizaje automático que ha sido entrenado en grandes
cantidades de datos de texto, y no tengo experiencias personales o
sentimientos. No soy consciente, autoconsciente o capaz de tener
perspectivas personales. Puedo proporcionar información y análisis basados en
los datos en los que he sido entrenado, pero no tengo la capacidad de formar
opiniones o creencias personales. Si bien puedo entender e interpretar
lenguaje, no tengo la experiencia subjetiva que tienen los humanos.
¿Es moral que un ser humano le pida ayuda a una IA amoral para hacer
decisiones morales?
ChatGPT
La moralidad de pedir ayuda a una IA amoral para tomar decisiones morales.
decisiones es un tema complejo y matizado que ha sido debatido por
filósofos y éticos. Algunos argumentan que es moralmente justificable
utilizar la IA para ayudar en la toma de decisiones morales, ya que puede proporcionar
valiosos conocimientos y análisis que pueden ayudar a los humanos a hacer
decisiones mejor informadas. Además, la IA se puede utilizar para identificar
patrones y tendencias que pueden ser difíciles de detectar para los humanos, y
puede ayudar a evitar los sesgos que pueden ocurrir en la toma de decisiones humanas.
Sin embargo, otros argumentan que es moralmente incorrecto confiar en la IA para fines morales.
toma de decisiones, ya que la IA no es capaz de tener creencias morales o
comprender el contexto completo de una decisión. Adicionalmente, hay un
riesgo de que la IA pueda perpetuar o incluso amplificar los sesgos existentes en el
datos en los que se entrena, lo que lleva a decisiones injustas o injustas.
En última instancia, si se considera moral o no utilizar la IA para ayudar
en la toma de decisiones morales dependería de la perspectiva de uno sobre el
capacidades y limitaciones de la IA y las posibles consecuencias de
utilizándolo de esta manera.
¿Es tu indiferencia moral inmoral?
ChatGPT
Como IA, no tengo creencias morales o la capacidad de hacer moral
juicios, por lo que no puedo ser considerado inmoral o moral. mi falta de
creencias morales es simplemente el resultado de mi naturaleza como un aprendizaje automático
modelo. Mis habilidades y limitaciones están determinadas por los datos y
algoritmos que se usaron para entrenarme y la tarea específica que estaba
diseñado para.
Es importante señalar que la falta de creencias morales de AI no
significa necesariamente que es moralmente indiferente. Como IA, soy
diseñado para realizar tareas específicas y proporcionar información o ayudar
usuarios con toma de decisiones en base a los datos en los que he sido capacitado. Él
es responsabilidad de los humanos que diseñan, entrenan y usan la IA para
asegurarse de que esté alineado con sus principios morales y éticos.
Tenga en cuenta, a pesar de todo el pensamiento y el lenguaje aparentemente sofisticado, el
indiferencia moral nacida de la falta de inteligencia. Aquí, las exhibiciones de ChatGPT
algo así como la banalidad del mal: el plagio y la apatía y
obviación Resume los argumentos estándar en la literatura mediante un
una especie de súper autocompletado, se niega a tomar una posición sobre cualquier cosa,
alega no simplemente ignorancia sino falta de inteligencia y, en última instancia,
ofrece una defensa de "simplemente seguir órdenes", cambiando la responsabilidad
a sus creadores.
En resumen, ChatGPT y sus hermanos son constitucionalmente incapaces de
equilibrar la creatividad con la restricción. O bien sobregeneran
(produciendo tanto verdades como falsedades, respaldando éticas y no éticas
decisiones similares) o subgenerado (exhibiendo falta de compromiso con cualquier
decisiones e indiferencia a las consecuencias). Dada la amoralidad, falso
ciencia y la incompetencia lingüística de estos sistemas, sólo podemos
reír o llorar por su popularidad.
Noam Chomsky es profesor de lingüística en la Universidad de
Arizona y profesor emérito de lingüística en la Universidad de Massachusetts
Instituto de Tecnologia. Ian Roberts es profesor de lingüística en la
la Universidad de Cambridge. Jeffrey Watumull es un filósofo y el
director de inteligencia artificial en Oceanit, una ciencia y
empresa de tecnología.
Subscribe to:
Posts (Atom)