Saltar al contenido

021: El Auto-engaño: ¿Hipocresía o Akrasía?

Versión original

¿Qué hemos de pensar que cuando alguien dice con sus labios que desea la verdad, pero por sus acciones cognoscitivas elige cómodas ilusiones sobre la realidad (o el cinismo cómodo sobre la realidad)?

Robin Hanson ha calificado de hipócritas a tales individuos. En el sentido tradicional de la palabra, un hipócrita es un mentiroso moral: alguien que aboga por una moralidad que no, el mismo, cree. Por otro lado, nosotros no siempre llegamos a la altura de los objetivos que nos marcamos. Si realmente creo que debo hacer ejercicio por lo menos 3 veces por semana, pero no siempre lo hago, ¿estoy bien calificado de «hipócrita»? El término akrasía, que significa «debilidad de voluntad» o «falta de auto-control», parece más apropiado. Incluso si le digo a todos mis amigos que deberían ejercitarse 3 veces por semana, eso no necesariamente me hace un hipócrita. Es un buen consejo. (Ahora, si yo pretendiera siempre hacer ejercicio 3 veces por semana, a sabiendas de que esta afirmación fuese falsa, eso sería deshonesto.)

Las acusaciones de hipocresía atraen la atención mucho más que las acusaciones de akrasía – porque la hipocresía es una transgresión deliberada. Es tentador decir «hipocresía» cuando en realidad deberías decir «akrasía», porque obtendrás más atención, pero eso puede causar daño a personas inocentes. En akrasía, tu transgresión es tu falta de voluntad – está bien que abogues por ir al gimnasio más a menudo, sólo tienes que llegar a vivir de acuerdo con el principio tu mismo. En la hipocresía, la transgresión es el pretender preocuparte: tu no tienes derecho a defender públicamente el principio moral, porque (el acusador dice) no crees en el tu mismo.

Will Wilkinson le preguntó a Hanson: «¿Sería una especie de victoria si las personas que ahora dicen preocuparse por la verdad, pero que en realidad no lo hacen, empezaran a admitir que en realidad no lo hacen?»

Pero mucho más importante: ¿quién dice que las personas que dicen preocuparse por la verdad, y luego se engañan a sí mismos, «realmente no se preocupan» por la verdad? ¿Por qué no decir que realmente se preocupan por la verdad (como es justo y propio), pero que no están a la altura de su propias morales?

Puede ser una práctica habitual en la economía el deducir las «preferencias» según las acciones en lugar de declaraciones, pero eso es porque estás tratando de predecir, en un sentido científico, lo que el sujeto va a hacer a continuación – tratando de construir un buen modelo económico. La filosofía moral es una bolsa de gusanos diferentes. Por lo menos, es un paso controversial en el razonamiento moral el decidir que los impulsos emocionales de las personas y las presiones subconscientes, en vez de los procesos declarativos de razonamiento moral y las palabras que salen de sus labios, constituyen su «verdadero yo». Deberíamos entonces llamar a akrasía, no la debilidad de la voluntad, sino la fuerza de voluntad.

Para decir el dilema más claramente: Uno viene ante ti y te suplica: «Yo sé que muchas veces he sido culpable de auto-engaño. He comprado billetes de lotería, he sobrestimado mis habilidades de conducción, he planeado de forma optimista, me he rehusado a hacerle frente a la evidencia contradictoria. Soy débil. Y sin embargo, deseo ser mejor. ¿Me ayudas?»

Así que esas son las palabras que salen de los labios, que dicen una cosa. Y puede ser que uno haya cometido otras acciones que digan algo más. ¿Quién es la persona real? ¿Tiene esa pregunta una respuesta, o sólo una definición?

No enmarco una respuesta. Sólo es necesario para mí saber que algo ha solicitado mi ayuda. Hay algo aquí que pueden aliarse conmigo mí, en nuestra búsqueda por la verdad – así o no lo llames el «verdadero yo». Así o no, para el caso, me llamas a mi mi «verdadero yo». Si la palabra «yo», cuando yo la uso, no se refiere a la estructura cognitiva que autora estas palabras en la pantalla de tu computadora, ¿a qué se refiere? Y si las palabras que salen de los labios de algún otro me declaran un fantasma, entonces voy a buscar mis compañeros fantasmas buscadores de la verdad, y tener compañía en mi aventura fantasmagórica.

015: La Balanza de la Justicia, el Cuaderno de la Racionalidad

Versión original

La Justicia es normalmente representada como llevando una balanza. Una balanza tiene la propiedad de que todo lo que tira un lado hacia abajo, empuja el otro lado hacia arriba. Esto hace las cosas muy convenientes y fáciles de seguir. También es por lo general una gran distorsión.

En el discurso humano hay una tendencia natural de tratar la discusión como una forma de combate, una extensión de la guerra, un deporte; y en los deportes sólo es necesario hacer un seguimiento de cuántos puntos han sido marcados por cada equipo. Sólo hay dos lados, y cada punto anotado en contra de un lado, es un punto a favor del otro. Todos en la audiencia mantienen una cuenta metal de la cantidad de puntos que cada orador anota en contra del otro. Al final del debate, el orador que ha apuntado más puntos es, obviamente, el ganador, así que todo lo que dice debe ser verdad, y todo lo que el perdedor dice debe estar mal.

«La Heurística Afectiva en el Juicio de Riesgos y Beneficios» estudio si los sujetos confunden sus juicios sobre los posibles beneficios de una tecnología (energía nuclear, por ejemplo), y los posibles riesgos de esta tecnología, en un solo sentimiento general bueno o malo acerca de la tecnología. Supongamos que primero te digo que un tipo particular de reactor nuclear genera menos residuos nucleares que diseños de reactores de la competencia. Pero entonces te digo que el reactor es más inestable que los diseños de la competencia, con un mayor peligro de sufrir una fusión si un número suficientemente grande de cosas van mal al mismo tiempo.

Si el reactor es más propenso a fusionarse, esto parece como un «punto en contra» del reactor, o un «punto en contra» de alguien que aboga por la construcción del reactor. Y si el reactor produce menos residuos, esto es un «punto a favor» del reactor, o un «punto a favor» de la construcción de éste. ¿Son entonces estos dos hechos opuestos uno al otro? No. En el mundo real, no. Estos dos hechos pueden ser citados por diferentes lados del mismo debate, pero son lógicamente distintos; los hechos no saben de qué lado están. La cantidad de residuos producidos por el reactor se debe a las propiedades físicas de ese diseño de reactor. Otras propiedades físicas del reactor hacen la reacción nuclear más inestable. Incluso si algunas de las mismas propiedades de diseño estuvieran implicadas, tienes que considerar por separado la probabilidad de crisis, y la cantidad esperada de residuos anuales generados. Estas son dos cuestiones físicas diferentes con dos objetivas respuestas diferentes.

Sin embargo, estudios como el anterior muestran que la gente tiende a juzgar tecnologías – y muchos otros problemas – por un sentimiento general bueno o malo. Si le dices a la gente que un diseño de reactor produce menos residuos, ellos califican su probabilidad de crisis como inferior. Esto significa obtener la respuesta equivocada a las preguntas de física con definidas respuestas objetivas, porque tu has mezclado preguntas lógicamente distintas – tratado a los hechos como soldados humanos en diferentes lados de una guerra, pensando que cualquier soldado de un lado se puede utilizar para luchar contra cualquier soldado del otro lado.

La balanza no es del todo inapropiada para la Justicia si ella está investigando si una cuestión estrictamente de hecho de la culpabilidad o inocencia. O bien John Smith mató a John Doe, o no. Se nos ha enseñado (por E.T. Jaynes) que todas la evidencia bayesiana consiste en flujos de probabilidad entre las hipótesis; no hay tal cosa como evidencia de que «apoye» o «contradiga» una sola hipótesis, excepto en la medida que otras hipótesis se vuelven peores o mejores. Siempre y cuando la Justicia este investigando a una pregunta sola, estrictamente objetiva, con un espacio de respuesta binaria, una balanza sería una herramienta adecuada. Si Justitia debe considerar cualquier asunto más complejo, ella debe renunciar a su balanza o renunciar a su espada.

No todos los argumentos se reducen a un simple subibaja. La Racionalidad lleva un cuaderno, en el que ella escribe todos los hechos que no están del lado de nadie.

013: Los argumentos de políticas no deben parecer absolutos

Version original

Robin Hanson propuso recientemente que se crearan tiendas en donde se pudieran vender productos prohibidos por sanidad. Hay muchos excelentes argumentos que apoyan esa idea, como los derechos inherentes de libertad individual, los incentivos que tienen los burócratas para prohibirlo todo, y los prejuicios de los legisladores. Pero aun así, alguna pobre y honesta ama de casa sin educación, y madre de cinco hijos, terminará yendo a una de esas tiendas, comprará una «Bebida medicinal ácida sulfúrica del Dr. Mejunje» para tratar su artritis y morirá por ello, dejando a sus huérfanos llorando en las noticias de la televisión nacional.

Esa es solo una observación sobre las consecuencias. ¿Por que algunas personas piensan que eso es un argumento a favor de la regulación de las medicinas?

Cuando tratamos con preguntas sobre hechos simples (Como por ejemplo, si la vida en la Tierra surgió a través de la selección natural) hay expectativas legítimas de que los argumentos sean del tipo absoluto; los hechos apuntan hacia una dirección o a otra, y el llamado «Equilibrio de las pruebas» debería reflejar esta tendencia. Ciertamente, bajo la definición Bayesiana de prueba, las «Pruebas fuertes» son exactamente el tipo de evidencias que podemos esperar encontrar en algún lado de una discusión de ese tipo.

Pero no hay razón para que las acciones complejas que tengan muchas consecuencias distintas exhiban esta tendencia de pruebas absolutas. ¿Por que la gente parece querer que los debates sobre políticas tengan argumentos absolutos?

La política mata a la mente. Los argumentos son soldados. Una vez que sabes en que bando estas, debes apoyar todos los argumentos de ese bando y atacar todos los argumentos del bando opuesto; de lo contrario es como si apuñalaras a tus soldados por la espalda. Si sigues ese patrón de comportamiento, las cuestiones de políticas deberán parecerte también absolutas, y los costes y desventajas de tu política favorita son soldados enemigos, que deben ser atacados utilizando todos los medios necesarios.

También debemos ser conscientes de otro falso patrón relacionado con el anterior, al pensar que la Sabiduría Profunda es usar el término medio exacto entre los puntos de vista opuestos que tengan más aceptación global. Una política puede tener costes y beneficios legítimamente mejores que otra cuando se comparan. Si las cuestiones sobre políticas fueran perfectamente equilibradas, seríamos incapaces de tomar decisiones al respecto. Pero existe una tendencia humana a negar todos los costes de nuestra política favorita, o de negar todos los beneficios de una política que desaprobemos; y por tanto la gente tiende a pensar que las diferencias entre políticas son mucho mayores de lo que en realidad son.

Si se permiten tiendas que vendan productos prohibidos, una madre pobre, honesta, con cinco hijos y con poca educación va a comprar algo que la va a matar. Esta es una predicción basada en una consecuencia de los hechos, y es un hecho que parece bastante directo – una persona cuerda debería llegar a la conclusión de que ese hecho es verdadero, independientemente de si están a favor o en contra de la política. Además de ello, puedes pensar que si se prohíbe eso, los productos serán igualmente accesibles, aunque más caros y por otros medios, o que su libertad individual es mas importante que tu deseo de inmiscuirte en su vida. Pero el hecho seguirá estando ahí, ella seguirá siendo una víctima.

Vivimos en un universo injusto. Como todos los primates, los seres humanos tienden fuertes emociones negativas contra las injusticias que perciben; por lo que estas cosas nos estresan. Existen dos métodos populares para resolver esta disonancia cognitiva. Primero, se puede cambiar nuestro punto de vista de los hechos – negar que los eventos injustos existieran, o editar los hechos para que parezca que fue justo. En segundo lugar, uno puede cambiar su propia moralidad – negar que ese tipo de eventos son injustos.

Algunos libertarios pueden decir que si vas a una tienda de «productos prohibidos», colocando etiquetas de advertencia que digan «LOS OBJETOS DE ESTA TIENDA PUEDEN MATAR», y compras algo que termina matándote, entonces la culpa es tuya y mereces haber muerto. Si eso fuera una verdad moral, entonces no existirían desventajas por tener tiendas que vendieran productos prohibidos. No tendría solo un beneficio neto al restar los costes; serían beneficios absolutos sin coste alguno.

Otros pueden decir que se pueden entrenar a los reguladores para que siempre escojan de forma racional y en armonía con los intereses de los consumidores; y si esos hechos fueran ciertos, entonces (desde su propio punto de vista moral) la política no tendría desventajas.

Les guste o no, existe una lotería de nacimiento para repartir la inteligencia – aunque este es uno de los casos en los que la injusticia es tan extrema que mucha gente escoge negar los hechos. La evidencia experimental a favor de un componente puramente genético de 0.6-0.8 es abrumador, pero aunque este hecho fuera negado, nadie puede escoger como le educaron sus padres ni las escuelas a las que asistió.

Yo fui educado para creer que negar la realidad era un mal moral. Si me pusiera a hablar con optimismo de como las bebidas de ácido sulfúrico podrían beneficiarme, estaría haciendo algo contra lo que me advirtieron y me educaron que era algo inaceptable. Hay también gente que nació en entornos – no discutiremos sobre genética, puesto que esa parte es demasiado injusta – donde los médicos brujos locales les dicen que lo correcto tener fe en su tratamiento y lo equivocado es ser escéptico. Con buena voluntad, siguen su consejo y se mueren. Al contrario que a usted, no les educaron para creer que la gente es responsable de sus elecciones individuales al seguir el ejemplo de la sociedad. ¿Crees realmente que eres tan listo que si hubieras nacido en el año 500 después de cristo hubieras sido un verdadero científico escéptico? Si, hay una lotería en el nacimiento, creas lo que creas sobre los genes.

Decir «¡La gente que compra productos peligrosos se merece sufrir daño!» no es pensar severamente. Es una forma de rechazar vivir en un universo injusto. Un pensamiento realmente severo es decir «Si, morir por beber acido sulfúrico es algo horrible, y no, esa madre de cinco hijos no se lo merecía, pero vamos a seguir teniendo abiertas esas tiendas porque los beneficios superan a los costes.» ¿Puede imaginar a un político decir eso? Yo tampoco. Pero utilizando la capacidad que tienen los economistas para influenciar las políticas, sería de ayuda el que lo pensaran en privado – e incluso expresar sus opiniones en artículos publicados, adecuadamente disfrazados con ofuscaciones polisílabas para que los medios de comunicación no puedan citarlas.

No creo que el que alguien se muera por tomar una decisión estúpida sea causa de celebración. Pienso que es una tragedia. No creo que siempre haya que guiar a la gente hacia las decisiones correctas, y salvarles de las consecuencias que tendrían sus errores; pero mi límite moral está en la pena de muerte. Si estas muerto, no puedes aprender de tus errores.

Desafortunadamente el universo no esta de acuerdo conmigo. Ya veremos quien termina en pie cuando todo termine.

012: No estás contratando al Mejor 1%

Versión original

La falacia estadística de hoy (ligeramente editada por el editor) nos la da Joel on Software:

Todos piensan que están contratando al mejor 1%. Martin Fowler dijo, “Aun estamos trabajando duro para contratar tan solo a los mejores desarrolladores de software (El objetivo está alrededor de los mejores 0.5% a 1%). Escucho esto de casi todas las compañías de software. “Contratamos al mejor 1% o menor,” dicen todos. ¿Podrían estar contratando todos al mejor 1%? ¿Dónde esta el otro 99%? ¿En General Motors?

Cuando te dan 200 currículums, y contratas al mejor de todos, ¿quiere decir eso que estás contratando al mejor 0.5%? Piensa lo que les pasa a los otros 199 que no contratas. Van a buscar otro empleo.

El mundo entero podría estar compuesto por 1.000.000 programadores, de los que los peores 199 solicitan empleo en todas partes, pero nunca lo obtienen, y los mejores 999,801 siempre consiguen empleo tan pronto como piden uno. Por tanto, cada vez que se ofrece un empleo, los 199 perdedores lo solicitan, como siempre, y uno del depósito de los 999,801 tambien lo pide, y consigue el empleo, por supuesto, ya que es el mejor de ellos, y ahora, en este forzado ejemplo, todos los patrones creen que contratan al mejor 0.5%, cuando en realidad contratan al mejor 99.9801%

Estoy exagerando mucho, pero la cuestión es que, cuando seleccionas a uno de cada 200 solicitantes, los otros 199 no se rinden y se vuelven fontaneros (Aunque desearía que lo hicieran… es imposible encontrar fontaneros). Vuelven a solicitar un puesto en otro lado, y contribuyen a los autoengaños de otro patrón sobre lo selectivos que son.

Esto también podría explicar otro fenómeno del que he oído hablar, como el “montón de fango” de historias inconcebiblemente horribles recibidas por correo de todas las publicaciones de ficción que acepta manuscritos no solicitados. Cuando una historia es lo suficientemente buena como para ser publicada, es aceptada y eliminada del sistema. ¡Si no lo es, el desventurado autor lo enviará a otra editorial!

¿Quizás los escritores novatos no son tan espantosos (de media) como los editores parecen creer? Los editores se encontraran desproporcionadamente el trabajo de escritores novatos que no solo son torpes, sino que son tan incompetentes como para no darse cuenta de su propia incompetencia, y tan orgullosos que no pueden darse por aludidos

PS: Existen otras dos áreas en donde esto podría aplicarse: Estudiantes que solicitan ser admitidos en tu programa/departamento. Y, también, solicitudes de subvenciones.

PPS: Robert Scarth comenta, “Esto también podría explicar por que algunas mujeres frecuentemente piensan ‘todos los hombres son cabrones’ – hay algunos canallas ahí fuera que circulan continuamente y sin intención de sentar la cabeza, mientras que los hombres con intenciones honorables tienen muchas menos relaciones, y sientan la cabeza más rápidamente.”

011: Líbrate de la esperanza de una vez

Version original

Casey Serin, un programador de 24 años sin experiencia previa en el mercado inmobiliario, debe 2.2 millones de dólares a los bancos tras mentir en las solicitudes de hipotecas para poder comprar simultáneamente 8 casas distintas en diferentes estados. Cogió dinero de la hipoteca (solicitada por una cantidad mayor que el precio de la casa) y gastó ese dinero en gastos básicos y en seminarios sobre el mercado inmobiliario. Al parecer, esperaba que el mercado fuera al alza.

Y eso no es lo triste. Lo triste es que aun no se ha rendido. Casey Serin no acepta la derrota. Se niega a declararse en bancarrota, o a conseguir un empleo; aun piensa que puede hacerse rico con el mercado inmobiliario. Siguió gastándose dinero en seminarios. Intentó conseguir una hipoteca para una novena casa. El no ha fracasado, fíjate, simplemente ha tenido una experiencia educativa.

Eso es lo que ocurre cuando uno se niega a perder la esperanza.

A pesar de que este comportamiento puede parecer que es simplemente estupidez, también me recuerda a dos economistas que ganaron el Premio Nobel…

…que son Merton y Acholes, de la empresa Long-Term Capital Management.

Aunque LTCM consiguió enormes beneficios en sus primeros tres años, en 1998 las ineficiencias que LTCM estaba aprovechando habían empezado a desaparecer – otras personas conocían el truco, así que dejó de funcionar.

LTCM se negó a perder la esperanza. Adictos a beneficios anuales del 40%, pidieron prestado más y más apalancamiento para aprovechar márgenes más y más pequeños. Cuando todo empezó a ir mal para la LTCM, tenían una equidad de 4.72 billones de $, apalancamiento de 124.5 billones de $, y posiciones derivativas de 1.25 trillones de $.

Todas las profesiones tienen distintas maneras de ser listos – diferentes habilidades que aprender y reglas que seguir. Por tanto podrías pensar que el estudio del “racionalismo” como disciplina general no puede contribuir mucho al éxito en la vida real. Pero aun así me parece que saber como no ser estúpido tiene mucho en común entre las profesiones. Si te propones enseñar a alguien como no convertir pequeños errores en grandes errores, es casi la misma habilidad ya sea en fondos de inversión como el romance, y una de las claves es esta: Estar preparado para admitir que has perdido.

 

009: Fuera del Laboratorio

Version original

«Cuando están fuera del laboratorio, los científicos no son más sabios que los demás.” Algunas veces este refrán lo dicen los científicos, humilde y tristemente, para recordarse a si mismos su propia falibilidad. Otras veces, el refrán es dicho por otras razones menos dignas de elogio, para devaluar consejos indeseados de expertos. ¿Es cierto el refrán?   Probablemente no en un sentido absoluto. Sería demasiado pesimista decir que los científicos no son realmente más sabios que la media, que la correlación entre ambas cosas sea realmente  cero.

Pero el refrán parece ser verdadero hasta cierto punto, y considero que deberíamos estar muy alarmados por este hecho. No deberíamos suspirar y negar tristemente con la cabeza. Más bien, deberíamos levantarnos sobresaltados. ¿Por qué? Bueno, imagínense que un aprendiz de pastor es laboriosamente entrenado para contar ovejas, a medida que entran y salen del redil. Así el pastor sabe cuando han salido todas las ovejas, y cuando han vuelto todas. Entonces le das al pastor unas cuantas manzanas, y le preguntas: “¿Cuántas manzanas hay?” Pero el pastor te mira de forma inexpresiva, porque no le enseñaron a contar manzanas – solo ovejas. Probablemente sospecharías que el pastor no ha entendido muy bien como contar.

Ahora imagínense que un economista con un doctorado comprara un billete de lotería cada semana. Deberíamos preguntarnos: ¿Esta persona entiende realmente el concepto de utilidad esperada, a nivel visceral? O simplemente le han enseñado a hacer algunos trucos algebraicos?

Me recuerda a lo que Richard Feynman contó sobre un programa defectuoso de enseñanza sobre física:

«Los estudiantes habían memorizado todo, pero no sabían qué significaba nada. Cuando escucharon ‘la luz reflejada desde un medio con un índice’, no sabían que se refería a un material como el agua. No sabían que la ‘dirección de la luz’ se refería a la dirección desde la que ves algo cuando lo estas mirando, y así sucesivamente. Todo se memorizaba completamente, pero nada se tradujo a palabras con significado. Así, que si pregunto ‘¿Cuál es el ángulo de Brewster?, acceden al ordenador con las palabras clave adecuadas. ¡Pero si digo, ‘Miren al agua,’ no ocurre nada – no tienen nada bajo el epígrafe ‘Mirar al agua’!”

Imaginen que tenemos a un científico aparentemente competente, que sabe como diseñar un experimento con N sujetos; los N sujetos recibirán un tratamiento aleatorio; jueces ciegos clasificarán los resultados de los sujetos; y entonces pasaremos los resultados a un ordenador para ver si los resultados son significativos al nivel de confianza de 0.05. Esta no es una tradición ritualizada. No es una cuestión arbitraria de etiqueta como cual es el tenedor correcto para la ensalada. Es una tradición ritualizada para comprobar hipótesis experimentalmente. ¿Por qué debes comprobar experimentalmente tus hipótesis? ¿Porque sabes que la revista científica lo exigirá para que tu ensayo sea publicado? ¿Porque te enseñaron a hacerlo así en la universidad? ¿Porque todos los demás dicen al unísono que es importante hacer el experimento, y te mirarán como un bicho raro si dices lo contrario?

No: porque, para poder dibujar un mapa de un territorio, tienes que ir y mirar ese territorio. No es posible crear un mapa preciso de una ciudad mientras estás sentado en tu salón con los ojos cerrados, pensando cosas agradables sobre como te gustaría que fuera la ciudad. Tienes que salir, caminar por la ciudad, y dibujar líneas que se correspondan con lo que ves. Ocurre, en miniatura, cada vez que te miras los zapatos para ver si tienes los cordones están desatados. Los fotones llegan desde el sol, rebotan contra tus cordones, golpean tu retina, son transducidos a frecuencias de impulsos neuronales, y se reconstruyen en tu cortex visual con un patrón de activación que está fuertemente correlacionado con la forma actual de tus cordones. Para conseguir nueva información sobre el territorio, debes interactuar con el territorio. Debe existir un proceso físico y real por el cual el estado de tu cerebro termina correlacionado con el estado del entorno. Los procesos de razonamiento no son mágicos; puedes dar descripciones causales de cómo funcionan. Lo que todo eso implica es que, para averiguar cosas, debes ir a mirar.

Ahora, ¿Qué debemos pensar sobre un científico que parece competente en un laboratorio, pero quien, fuera del laboratorio, cree en un mundo espiritual? Le preguntamos el porqué, y el científico dice algo parecido a  “Bueno, nadie lo sabe realmente, y admito que no tengo pruebas – es una creencia religiosa, no puede ser refutada de una forma o de otra mediante la observación.” No puedo evitar concluir que esa persona no sabe realmente la razón por la que debes ir a mirar las cosas. Pueden haberle enseñado un cierto ritual de experimentación, pero no entienden la razón de ello – que para hacer un mapa del territorio, debes mirarlo – de que para conseguir información sobre el entorno, debes someterte a un proceso causal en el que interactúas con el entorno y terminas correlacionado con el mismo. Esto se aplica tanto al diseño experimental doblemente ciego que recopila información sobre la eficacia de un nuevo aparato médico, como a lo que hacen tus ojos cuando reúnen información sobre tus cordones.

Quizás nuestro científico espiritual dice: “Pero no es una cuestión sobre la que se pueda experimentar. Los espíritus me hablan a mi corazón.” Bueno, si realmente suponemos que los espíritus hablan en cualquier sentido, esta es una interacción causal y cuenta como observación. La teoría de probabilidades sigue siendo aplicable. Si propones que una experiencia personal de “voces espirituales” prueba que los espíritus existen, debes proponer que existe una probabilidad favorable de que los espíritus sean la causa de las “voces espirituales”, que es suficiente para superar la improbabilidad previa que tiene una creencia compleja con muchas partes. Negarse a darse cuenta de que “Los espíritus le hablan a mi corazón” es una instancia de “interacción causal” es análogo a que un estudiante de física no se de cuenta que un “medio con un índice” se refiera a un material como el agua.

Es fácil ser engañados, quizás, por el hecho de que la gente que lleva las batas de laboratorio usa la frase “interacción causal” y que la gente que lleva joyería chillona use la frase “espíritus que hablan”. Los comentaristas llevan ropas distintas que, como todos sabemos, demarcan esferas individuales de existencia – “magisterios separados”, citando la inmortal metedura de pata de Stephen J. Gloud. En realidad, la “interacción causal” es solo una forma elaborada de decir “Algo que hace que otra cosa ocurra”, y a la teoría de probabilidades no le importa que ropas lleves.

En la sociedad moderna prevalece la idea de que las cuestiones espirituales no pueden ser resueltas mediante la lógica o la observación, y por tanto puedes tener las creencias religiosas que quieras. Si un científico cae en esto, y decide vivir su vida fuera del laboratorio de acuerdo a esto, entonces esto, para mi, me dice que solo entienden el principio de experimentación como una convención social. Saben cuando se espera de ellos que hagan experimentos y verificar los resultados buscando relevancia estadística. Pero cuando los colocamos en un contexto en el que lo socialmente convencional es inventarse estrambóticas creencias sin estudiarlas, harán felizmente eso en vez de lo otro.

Se le dice al aprendiz de pastor que si “siete” ovejas salen, y “ocho” ovejas salen, entonces mejor será que vuelvan “quince”. ¿Por qué “quince” en vez de “catorce” o “tres”? Porque de otro modo no cenará esta noche, ¡Ese es el porqué! Por tanto, eso es una clase de entrenamiento profesional, y funciona en cierto modo – pero si la convención social es la única razón por la que siete ovejas mas ocho ovejas son igual a quince ovejas, entonces quizás siete manzanas mas ocho manzanas sean igual a tres manzanas. ¿Quién dice que las reglas no puedan ser diferentes para las manzanas?

Pero si sabes por que las reglas funcionan, puedes ver que la adición es la misma tanto si son ovejas como si son manzanas. Isaac Newton es justamente reverenciado, no por su obsoleta teoría de la gravedad, sino por descubrir que – asombrosa, sorprendentemente – los planetas celestiales, en los gloriosos cielos, obedecían exactamente las mismas reglas que las manzanas que se caen. En el mundo macroscópico – el entorno del ancestral día a día – árboles distintos daban frutas distintas, gentes diferentes seguían costumbres diferentes en épocas diferentes. ¡Un universo genuinamente unificado, con leyes universales fijas, es un concepto altamente contrario a la intuición de los humanos! Son únicamente los científicos los que realmente creen en ello, aunque algunas religiones pueden dorar la bola sobre la “unidad de todas las cosas”

Como dijo Richard Feynman:

“Si observamos un vaso lo suficientemente cerca veremos a todo el universo. Existen cosas de física: el líquido agitado que se evapora dependiendo del viento y el tiempo, los reflejos del cristal, y nuestra imaginación añade los átomos. El cristal es una destilación de de las rocas terrestres, y en su composición podemos ver el secreto de la edad del universo, y de la evolución de las estrellas. ¿Qué extraño despliegue de productos químicos hay en el vino? ¿Cómo llegaron a producirse? Están los fermentos, los enzimas, los substratos, y los productos. En el vino se encuentra la gran generalización: toda la vida es fermentación. Nadie puede descubrir la química del vino sin descubrir, como lo hizo Louis Pasteur, la causa de muchas enfermedades. ¡Que intenso es el clarete, insistiendo sobre su existencia a las consciencias que lo contemplan! ¡Si nuestras pequeñas mentes, por alguna conveniencia, dividieran este vaso de vino, este universo, en partes – física, biología, geología, astronomía, psicología, y así sucesivamente – que recuerden que la Naturaleza no las conoce! Así que reunámoslas de nuevo, sin olvidar en última instancia para que sirve. ¡Que nos dé un último placer más: beberlo y olvidarlo todo!”

Algunas religiones, especialmente las inventadas o reconstituidas después de Isaac Newton, pueden profesar que “todo esta conectado a todo lo demás”. (Ya que existe un isomorfismo trivial entre los grafos y sus complementos, esta profunda sabiduría transmite exactamente la misma información útil que un grafo sin bordes.) Pero cuando llegamos a la misma sustancia de la religión, los profetas y sacerdotes siguen la antigua costumbre humana de inventarse las cosas sobre la marcha. Y crean una regla para las mujeres por debajo de doce años, otra para los hombres por encima de los trece; una regla para el Sabbath y otra regla para los otros días de la semana; una regla para la ciencia y otra para la hechicería…

La realidad, como nos hemos sorprendido averiguar, no es una colección de magisterios separados, sino un único proceso unificado gobernado por reglas a bajo nivel matemáticamente simples. Los distintos edificios de un campus universitario no pertenecen a distintos universos, aunque algunas veces pueda parecerlo. El universo no está dividido entre mente y materia, o vida y no vida; los átomos de nuestra cabeza interactúan sin problemas con los átomos del aire que la rodea. Ni el Teorema de Bayes difiere entre un lugar y otro.

Si, fuera de su campo especializado, algún científico en particular es tan susceptible como cualquiera a ideas estrambóticas, entonces probablemente nunca entiendan por que las reglas científicas funcionan. Quizás puedan repetir algo sobre la falsificación Popperiana; pero no lo entienden a un nivel profundo, el nivel algebraico de la teoría de probabilidad, el nivel casual de conocimiento-como-mecanismo. Les han entrenado para que se comporten de cierta forma en el laboratorio, pero no les gusta estar restringidos por las pruebas; cuando vuelven a casa, se quitan la bata y se relajan con cómodas tonterías. Y si, eso me hace preguntar si puedo confiar en las opiniones del científico incluso en su propio campo – especialmente cuando llega a una cuestión controvertida, cualquier pregunta abierta, cualquier cosa que no esté ya establecida mediante grandes pruebas y la convención social.

Quizás podamos vencer al refrán – ser racionales en nuestras vidas personales, y no solo en nuestras vidas profesionales. No deberíamos dejar que un simple refrán nos detenga: “Una frase ingeniosa no demuestra nada” como dijo Voltaire. Quizás podamos hacerlo mejor, si estudiamos la teoría de la probabilidad lo suficiente como para saber por que funcionan las reglas, y la suficiente psicología experimental para saber como se aplican en casos del mundo real – si aprendemos a mirar al agua. Una ambición como esa carece de la cómoda modestia de ser capaces de confesar que, fuera de tu propia especialidad, no eres mejor que nadie más. Pero si nuestras teorías del racionalismo no se generalizan a la vida diaria, estamos haciendo algo mal. Fuera y dentro del laboratorio no hay dos universos distintos.

Addendum:  Si crees que (a) la ciencia es puramente lógica y por tanto contraria a las emociones, o (b) que no deberíamos molestarnos en buscar la verdad en la vida diaria, lea «¿Por que la verdad?»  Para los nuevos lectores, también recomendaría «Veinte Virtudes del Racionalismo.»

 

008: Algunas Afirmaciones Son Simplemente Demasiado Extraordinarias

Version original

“Antes creería que dos profesores yanquis mienten, que creer en la caída de piedras del cielo.»

— Thomas Jefferson, sobre los meteoros

«¿Cómo podría explicar el suceso de que mi brazo izquierdo ha sido sustituido por un tentáculo azúl? La respuesta es que no podría. No es algo que pueda ocurrir.”

— Eliezer Yudkowsky, «Una Explicación Técnica de las Explicaciones Técnicas.”

“Si una nave aterrizara en mi patio y empezaran a salir Pequeños Hombrecillos Verdes, apartaría su literatura e intentaría encontrar el cable que depositó el platillo sobre mis rosas, y entonces cogería un martillo e intentaría aporrear la nave hasta que estuviera convencido de que nada de su interior dijera “Intel Incide”. Entonces cuando descubra una cosa del estilo de un “Capacitador de Flujo”, entonces me detendría y diría, “¡Oye, que cachivache tan guay!” Asumiendo la universal benevolencia de los Hombrecillos Verdes, lo cogería y le exigiría al “Gris” más cercano (Son los más altos y amables) “de donde demonios salio esta cosa”. Los Grises no hablan, se comunican mediante telepatía, así que ignoraría la voz que oiría en mi cabeza. Entonces, saliendo del platillo y sentándome en una silla de jardín, arrojaría piedrecillas a los alienígenas hasta que estuviera convencido de que eran sólidos. Entonces volvería a mirar al “Capacitador de Flujo” y me aseguraría de que no se ha convertido en un comedero de pájaros. Finalmente, con pruebas en mi mano y con alienígenas estando sentados en mi porche (Les habría ofrecido cervezas, aunque he oído que absorben la energía como las plantas), iría a por mi móvil y le diría a mi doctor que estoy teniendo un grave ataque maniático con desarrolladas alucinaciones visuales.“

— Peter K. Bertine, en la lista de correos Extropiana

Subestimamos el poder de la ciencia, y sobreestimamos el poder de la observación personal. Un informe publicado en una revista científica, revisado por expertos, y repetible tiene mucho más valor que lo que se puede ver con los propios ojos. Nuestros propios ojos pueden engañarnos. La gente puede engañarse, sufrir alucinaciones, o incluso volverse loca. Los controles de las publicaciones en las revistas científicas importantes son mucho más fiables que la estructura misma de los cerebros. Si ve con los propios ojos que el cielo es azul, y la Ciencia dice que es verde entonces, señor, le aconsejaría que confiara en la Ciencia.

Eso no es lo que la mayoría de los científicos le dirá, por supuesto; pero creo que es pragmáticamente cierto. Porque en la vida real, lo que ocurrirá es que tus ojos tienen un pequeño fallo que hace que usted decida que el cielo es verde, y la ciencia te dirá que el cielo es azul.

Un informe científico repetible es una clase especial de afirmación extraordinaria, diseñado por el proceso circundante de que las pruebas sean más extraordinarias que las simples afirmaciones verbales. Las pruebas son más extraordinarias porque el proceso circundante – y, por cierto, yo daría mas peso a la repetibilidad que en la revision por los expertos – esta construido de forma que niega la entrada a afirmaciones que son de hecho falsas. De esta forma, el informe científico repetible es capaz de superar grandes cargas de improbabilidad a priori.

Existen algunas cargas de improbabilidad a priori tan grandes que las simples afirmaciones verbales no pueden superarlas. Yo no creería a alguien que afirmara que su café estaba desobedeciendo la conservación del momento angular – pero podría creer en el mismo informe si estuviera publicado en Physics Today, con al menos tres repeticiones. ¿Quién creería en la mecánica cuántica si una persona cualquiera viniera y nos lo susurrara?

¿Existen cargas de improbabilidad tan grandes que ni la misma ciencia puede superarlas?

¿Qué tal la de 2 + 2 = 5?

¿Y las de las revistas que afirman publicar informes repetibles de Percepción Extrasensorial?

Algunas veces, incluso las afirmaciones construidas deliberadamente para ser pruebas extraordinarias acaban no siendo lo suficientemente extraordinarias.

006: «No lo se.»

Version original

Una trascripción editada de una larga conversación por Messenger que tuvo lugar refiriéndose a la frase “No lo se”, desencadenada por el artículo anterior de Robin Hanson, “Nunca Tienes Derecho a tu Propia Opinión”

[08:50] Eliezer: http://www.overcomingbias.com/2006/12/you_are_never_e.html

[09:01] X: sigue pareciendo que decir “no lo se” en algunas situaciones es mejor que dar tu mejor estimación

[09:01] X: especialmente si estas tratando con gente que te lo tomará al pie de la letra y que no son racionalistas

[09:02] Eliezer: en la vida real, tienes que escoger, y apostar, a alguna probabilidad

[09:02] Eliezer: p. ej, la gente que dice “No lo se” respecto a la criogenización van a seguir teniendo que apuntarse o no hacerlo, y probablemente harán lo segundo

[09:03] Eliezer: “No lo se” es normalmente una defensa que la gente cree que es defendible e indiscutible, que usan antes de seguir haciendo lo que les parece; y normalmente es la acción equivocada, porque se han negado a admitirse a si mismos cual era su estimación, o a examinar sus justificaciones, o incluso a darse cuenta de que estaban haciendo una estimación.

[09:02] X: ¿cuantas manzanas hay en un árbol de afuera?

[09:02] X: yo nunca lo he visto y tu tampoco.

[09:02] Eliezer: entre 10 y 1000

[09:04] Eliezer: si me ofreces una apuesta de un millón de dólares contra un dólar de que el árbol de afuera tiene menos de veinte manzanas, cuando ninguno de los dos lo ha visto, aceptaré tu apuesta

[09:04] X: es mejor decir “quizás entre 10 a 1000″ para dejar claro que estas estimando cuando hablas con la gente

[09:04] Eliezer: por tanto he asignado una probabilidad significativa distinta a cero de que las manzanas < 20 tanto si lo admito como si no

[09:05] Eliezer: lo que *dices* es otra cuestión, especialmente cuando hablas con personas no racionalistas, y entonces es bueno tener en cuenta que las palabras no tienen significados fijos; el significado de los sonidos que creas con tus labios es el que ocurre en la mente del oyente. Si van a malinterpretar algo entonces no deberías decir eso, sin importar lo que signifiquen las palabras en el interior de tu cabeza

[09:06] Eliezer: a menudo estas simplemente fastidiado a menos que quieras retroceder y enseñarles racionalidad desde el principio, y en un caso como ese, lo único que puedes hacer es decir lo que cree la imagen menos imprecisa

[09:06] X: ¿es decir entre10 to 1000 algo equívoco cuando se lo dices a un no racionalista?

[09:06] Eliezer: “no lo se” es una buena forma de evitar eso cuando se lo dices a alguien que no sabe nada de distribuciones de probabilidad

[09:07] Eliezer: si pensaran que estoy seguro, o que mi frase implica que tengo conocimiento real del arbol

[09:07] Eliezer: entonces la frase si sería equívoco

[09:07] Eliezer: y si yo supiera esto, y lo dijera de todos modos por mis propios motivos, sería una mentira

[09:08] Eliezer: si no supiera pensar en nada mejor que decir, entonces sería honesto pero no verdadero, si puedes notar la diferencia

[09:08] Eliezer: honesto para mí, pero la frase que se formara en sus mentes seguiría sin ser cierta

[09:09] X: la mayor parte de la gente te dirá… pero tu dijiste… 10-1000 manzanas

[09:09] Eliezer: entonces simplemente estás fastidiado

[09:10] Eliezer: nada que hagas podrá crear en sus mentes una comprensión verdadera, ni siquiera “No lo se”

[09:10] X: ¿por qué molestarse, por que no decir no lo se?

[09:10] Eliezer: la honestidad por tanto consiste en desorientarles lo menos posible y decirles lo más posible

[09:10] X: es mejor que desorientarles con 10-1000

[09:10] Eliezer: y respecto a “por que molestarse”, bueno, si vas a hacer esa pregunta, lo único que tienes que hacer es no responder a su correo o lo que sea

[09:11] Eliezer: ¿qué pasa si estas tratando con alguien que piensa que mi “no lo se” es una licencia para que se inventen sus propias ideas, que serán mucho peor?

[09:11] X: pueden seguir tu estimación, y entonces decir “pero dijiste…” y perder dinero o meterse en problemas o tenerte menos respeto

[09:11] Eliezer: por lo que elijes librarte de ellos

[09:11] Eliezer: con “no lo se”

[09:11] Eliezer: pero es por tu propio interés, no por el suyo

[09:12] X: aquí puedo ver porqué

[09:12] X: pero es difícil tratar con las personas corrientes en el mundo real

[09:13] Eliezer: lo primero que se debe decidir es si estas intentando conseguir algo para ti mismo (como no meterte en problemas) o si estas intentando mejorar la visión de alguien de la realidad

[09:13] Eliezer: “No lo se” es frecuentemente una buena forma de no meterte en problemas.

[09:13] Eliezer: respecto a lo de que es difícil tratar con la gente en el mundo real, bueno, claro

[09:13] X: si dices 10-1000, y te equivocas, se enfadarán, y entonces dices, no lo se, estarán incluso más enfadados

[09:13] Eliezer: ¿estas intentando no meterte en problemas?

[09:14] Eliezer: ¿o intentando mejorar su visión de la realidad?

[09:14] Eliezer: esas son dos tareas distintas

[09:14] X: especialmente si han perdido dinero u otra persona les ha demostrado que estaban equivocados

[09:14] Eliezer: si se intersectan tienes que decidir a que renuncias

[09:14] Eliezer: que es más importante para ti

[09:14] Eliezer: entonces decidir si se lo explicas para su beneficio o dices “no lo se” para el tuyo

[09:15] X: bueno, si estuviera en mi trabajo, diría no lo se en vez de equivocarme, porque quien sabe lo que hará tu jefe tras perder dinero por escucharte

[09:15] Eliezer: vale

[09:16] Eliezer: solo para ser claros, esto no es porque “no lo se” es el juicio racional, sino porque “no lo se” son las palabras adecuadas políticamente

[09:16] X: el puede coger tu estimación, e intentar convertirla en una autentica respuesta, porque nadie más que este cerca de ti tiene un plan mejor

[09:17] Eliezer: puedes ver esto fácilmente observando a la razón que citaste: no hablaste sobre evidencias, realidades ni verdades, sino si podrías meterte en problemas basado en la reacción de alguien

[09:17] X: si

[09:17] X: eso es lo que uno tiene que aguantar en el mundo real

[09:17] Eliezer: si te preocupara el bienestar de tu jefe entonces deberias considerar que si dices “no lo se” el debe hacer algo igualmente – negarse a elegir es tambien una eleccion, y negarse a actuar es como negarse a dejar pasar el tiempo – y el construirá ese plan basándose en alguna información, la cual no incluirá la tuya

[09:18] Eliezer: si tu vida no vale más que las de los demás, tampoco vale menos, y es normalmente lo mejor dejar que los idiotas hagan sus propios errores

[09:18] Eliezer: solo puedes interceptar unas cuantas balas antes de que se te acabe la carne con la que detenerlas

[09:19] X: ?

[09:19] Eliezer: en otras palabras, no siempre puedes salvar a la gente de si mismas

[09:23] Eliezer: pero todo esto se está alejando de la discusión original, que es cierta y correcta, de que nadie tiene derecho a su propia opinión

[09:26] X: ¿cómo se llama?

[09:26] Eliezer: ?

[09:26] X: un hombre de afuera

[09:26] X: alguien cualquiera

[09:26] Eliezer: probablemente no es «Xpchtl Vaaaaaarax»

[09:26] X: probablemente no

[09:27] Eliezer: supongo que podría construir un diagrama de transición de Markov para las letras de nombres expresados en Ingles, medidos por su frecuencia

[09:27] Eliezer: pero eso sería mucho trabajo

[09:28] Eliezer: así que puedo decir “no lo se” como un atajo del hecho de que, aunque poseo mucha información sobre nombres posibles y probables, no se nada *más* que lo que tu sabes

[09:28] X: ok, asi que dices que afirmar que tu estimación probablemente no sea correcta esta bien?

[09:28] Eliezer: lo que digo es que poseo una gran cantidad de información sobre nombres posibles

[09:28] Eliezer: todo eso influencia en que apostaría

[09:28] Eliezer: si tuviera que hacer una acción del mundo real, como adivinar el nombre de alguien con una pistola apuntándome a la cabeza

[09:29] Eliezer: si tuviera que elegir entonces sería muy relevante que supiera que Michael era uno de los nombres más comunes estadísticamente, pero no pudiera recordar en que años fue el mas frecuente, y que supiera que Michael es mas probable que sea un nombre masculino que uno femenino

[09:29] Eliezer: si un alienígena apuntara una pistola contra su cabeza, decirle “no lo se” en ese momento no sería útil

[09:29] Eliezer: porque hay muchas cosas que yo se que el no sabe

[09:30] X: ok

[09:33] X: y una pregunta de la que realmente no tienes información alguna?

[09:33] X: como algo que solo un alienígena pudiera saber

[09:34] Eliezer: si no tuviera pruebas de ningún tipo puedo usar un Priori de Ignorancia apropiado, que distribuye la probabilidad igualmente entre todas las posibilidades, y asigna una cantidad muy pequeña a cada probabilidad individual al existir tantas

[09:35] Eliezer: si la persona con la que estoy hablando ya sabe como usar un priori de ignorancia, digo “no lo se” porque ya tenemos la misma distribución de probabilidades y no tengo nada que añadir a eso

[09:35] Eliezer: el priori de ignorancia me dice mis posibilidades de apuestas

[09:35] Eliezer: determina mis elecciones

[09:35] X: y que ocurre si no sabes como usar un priori de ignorancia

[09:36] X: nunca has oído hablar de el etc

[09:36] Eliezer: si trato con alguien que no sabe sobre prioris de ignorancia, y que está tratando con el problema inventándose una enorme hipótesis elaborada con muchas partes moviles y muchas cosas que podrían ir mal, entonces la verdad es que se automáticamente que el/ella se equivoca

[09:36] Eliezer: puede no ser posible explicarle esto a ellos, como no sea entrenarles en el racionalismo desde el principio

[09:36] Eliezer: pero es cierto

[09:36] Eliezer: y si la persona confia en mi como un racionalista, puede ser igualmente honesto y util decirles “No, eso es erroneo”

[09:36] X: y si la persona dice, “no se cual es su nombre”, eso esta bien?

[09:37] Eliezer: en la vida real no puedes escoger “no lo se”, no es una opcion en tu lista de acciones disponibles

[09:37] Eliezer: en la vida real siempre es, “no lo se, por lo que voy a decir Vkktor Blackdawn porque me parece que suena guay”

[09:39] Eliezer: Vkktor Blackdawn es tan (im)probable como cualquier otra cosa, pero si empiezas a asignar mas probabilidades a eso que lo que indicaria el priori de ignorancia – porque suena guay, por que no cabe en tu cabeza nada mas que una posibilidad, o porque has empezado a construir una elaborada explicación mental de cómo el alienígena podría haber terminado llamándose Vkktor Blackdawn

[09:39] Eliezer: entonces se mejor las cosas

[09:40] Eliezer: y si confías en mi, puedo ser capaz de decírtelo honesta y utilmente

[09:40] Eliezer: en vez de decir “no lo se” que es siempre algo que se dice, y no se piensa

[09:40] Eliezer: esto es importante si alguien te pregunta, “¿Que apuesta me ofrecerías de que el alienígena se llama Vkktor Blackdawn?»

[09:41] Eliezer: o si tienes que hacer otra cosa, basándose en tus estimaciones y los pesos que les asignes

[09:41] Eliezer: que es de lo que trata la probabilidad

[09:41] X: y si dicen “no lo se, no se nada sobre probabilidades”?

[09:41] Eliezer: entonces o confían ciegamente en mi o no podré ayudarles

[09:41] Eliezer: así es como son las cosas

[09:41] Eliezer: no siempre puedes proteger a la gente de si mismos

[09:42] X: confiar ciegamente en lo que estas diciendo o en tu estimación de cual es el nombre del alienígena?

[09:42] Eliezer: confiar ciegamente cuando les digo “No apuesten con esas probabilidades”

005: El Argumento de la Modestia

El Argumento de la Modestia

Version original

El Argumento de la Modestia afirma que cuando dos o mas seres humanos saben que no están de acuerdo entre sí sobre un simple hecho, deberían ajustar sus estimaciones de probabilidad en dirección de las de los demás (Por ejemplo, podrían ajustar la media aritmética de sus probabilidades de distribución. Si usamos la norma del error logarítmico, entonces la puntuación de la media de un conjunto de distribuciones probabilísticas es mejor que la media de las puntuaciones de las distribuciones individuales, por la desigualdad de Jensen.)

Dicho de forma más simple: Cuando no se está de acuerdo con alguien, incluso después de exponer las razones, el Argumento de la Modestia afirma que ambos deben ajustar sus estimaciones de probabilidad hacia la postura del otro, y seguir haciéndolo hasta que ambas coincidan. El Argumento de la Modestia está inspirado en el Teorema del Acuerdo de Aumann, un resultado muy famoso y frecuentemente generalizado que demuestra que los genuinos Bayesianos literalmente son incapaces de terminar en desacuerdo; si genuinos Bayesianos conocen en común sus mutuas estimaciones individuales de probabilidad, entonces deben acabar con la misma estimación de probabilidad. (Por “conocer en común” queremos decir que se que no estas de acuerdo, que sabes que se que no estas de acuerdo, etc.)

Siempre he sospechado del Argumento de la Modestia. Ha sido un largo tema de debate entre Robin Hanson y yo.

Robin parece apoyar el Argumento de la Modestia en artículos como Are Disagreements Honest? (¿Son los desacuerdos honestos?) Yo, por otro lado, he sostenido que puede ser racional por parte de un individuo el no ajustar sus propias estimaciones en dirección de alguien con quien no estás de acuerdo.

¿Como puedo mantener esta postura conociendo el Teorema del Acuerdo de Aumann, que demuestra que los genuinos Bayesianos no pueden ser conscientes de una disputa sobre estimaciones de probabilidad sin hacer nada al respecto? Si los genuinos Bayesianos siempre terminan estando de acuerdo una vez que han intercambiado sus estimaciones de probabilidad, ¿no deberíamos hacer lo mismo los que queremos ser Bayesianos?

Para explicar mi respuesta, empezaré con una metáfora: Si tengo cinco mapas precisos de una ciudad, todos deberán ser consistentes entre si. Algunos filósofos, inspirados por esto, han afirmado que la “racionalidad” consiste en tener creencias que son consistentes entre si. Pero, aunque la precisión implica necesariamente consistencia, la consistencia no implica necesariamente precisión. Si me quedo sentado en mi salón con las cortinas cerradas, y dibujo cinco mapas que son consistentes entre si, pero no camino por la ciudad y dibujo líneas que se correspondan con lo que fuera viendo, entonces mis mapas serán consistentes pero no precisos. Cuando los genuinos Bayesianos terminan estando de acuerdo en sus estimaciones de probabilidad, no es por que intenten ser consistentes – El Teorema del Acuerdo de Aumann no invoca ningún deseo explícito por parte de los Bayesianos de ser consistente. ¡Eso es lo que hace que el T.A.A. sea tan sorprendente! Los Bayesianos solo intentan ser precisos, y terminan siendo consistentes. El Argumento de la Modestia, que dice que podemos terminar siendo precisos cuando intentamos ser consistentes, no es algo que se infiera necesariamente.

¿Como puedo mantener mi posición teniendo en cuenta mi admisión de que los que disputan siempre mejorarán su resultado medio si escogen el término medio de sus distribuciones individuales de probabilidad?

Imaginen que un creacionista llega y me dice “Usted cree que la selección natural es verdadera, y yo que es falsa. Acordemos asignar un 50% de probabilidad a cada una de las afirmaciones.” Y supongan que mediante drogas o hipnosis fuera posible que ambos pudiéramos ajustar de esta forma nuestras estimaciones. Incuestionablemente, esto mejora nuestra puntuación logarítmica, y nuestro error cuadrático combinado. Si, de forma altruista, valoro la precisión del creacionista tanto como la mía propia – si mi pérdida de precisión fuera simétrica a la ganancia del otro – entonces debería aceptar la propuesta. ¿Pero que ocurre si lo que quiero es maximizar es únicamente mi propia precisión? En el primer caso, la cuestión está completamente clara, y en el segundo, no esta clara en absoluto, al menos para mí, lo que abre la posibilidad de que sean dos cuestiones distintas.

Si firmara un contrato con el creacionista en el que ambos usáramos drogas o hipnosis para ajustar nuestras estimaciones de probabilidad, puesto que sé que la estimación del grupo mejorará con ello, considero eso como buscar la meta del altruismo social. Eso no hace que el creacionismo sea verdadero, y no quiere decir que pensase que el creacionismo fuera verdadero antes de que firmara ese contrato. Si pensara que el creacionismo es un 50% probable, entonces no necesitaría firmar ningún contrato – ¡Ya habría actualizado mis creencias!  Es tentador pero falso considerar que actualizar las creencias de uno mismo es un favor que se hace a los demás, y que la racionalidad es una cuestión de igualdad, de compromiso equivalente. Por tanto está escrito: “No creas que les haces un favor a alguien si aceptas sus razones; el favor te lo haces a ti mismo.” ¿Me estoy haciendo a mi mismo un favor cuando acuerdo con el creacionista el utilizar la media de nuestras distribuciones de probabilidad?

Considero la racionalidad en su forma más pura como algo individual – no solo porque los racionalistas tienen solo intereses egoístas, sino por la forma de la única pregunta admisible: “¿Es eso realmente cierto?” Otras consideraciones, como la precisión colectiva de un grupo que te incluye a ti mismo, pueden ser metas legítimas, y una parte importante de la existencia humana – pero son distintas que esa simple pregunta pura.

En el Teorema del Acuerdo de Aumann, todos los individuos Bayesianos están intentando ser precisos como individuos. Si su meta explícita fuera de maximizar la precisión del grupo, el T.A.A. no sería tan sorprendente. Así que si la mejora del grupo no es un argumento que rebaje lo que un individuo deba hacer si intenta puramente maximizar su propia precisión, y esa es la búsqueda que identifico como racionalidad. Está escrito: “Cada paso de tu razonamiento debe ir directamente hacia la respuesta correcta en el mismo movimiento. Más que cualquier cosa, debes pensar en como hacer tu mapa de forma que refleje el territorio. Si no llegas a alcanzar la respuesta correcta, es inútil protestar diciendo que actuaste adecuadamente.” Desde el punto de vista del altruismo social, alguien puede desear ser Modesto, y firmar un contrato de imposición-mediante-drogas-o-hipnosis, aunque eso le impida llegar a una respuesta correcta.

El argumento central de la Modestia propone algo parecido a un velo Rawlsiano de ignorancia – ¿Cómo puedes saber cual de los dos es un honesto buscador de la verdad, y cual es el testarudo que se engaña a si mismo? El creacionista cree que el es el cuerdo y que tu eres el tonto. ¿No hace esto que la situación sea simétrica entre los dos? Si hacéis la media entre vuestras estimaciones, uno debe ganar, y el otro debe perder, ya que los cambios son en direcciones opuestas; pero por el concepto de desigualdad de Jensen este es un juego de suma positiva. Y ya que, por algo parecido a un velo Rawlsiano de ignorancia, como no sabes cual de los dos es realmente el tonto, deberías aceptar la apuesta. Esto afirma que el movimiento socialmente altruista es también el movimiento racional individual en todos los casos.

Y tambien existe la respuesta obvia. “Pero yo se perfectamente quien es el tonto. Es el otro. No importa que el diga lo mismo – El sigue siendo el tonto.”

Esta respuesta parece simplista y poco convincente cuando lo consideras de forma abstracta. Pero cuando te encuentras con un creacionista, entonces parece que es la respuesta correcta – tienes razón, el otro está equivocado, y tienes pruebas válidas que lo reafirman, incluso si el creacionista puede recitar la misma afirmación delante de una audiencia de la tele.

Robin Hanson está del lado de la simetría – esto se ve claramente en su artículo Uncommon Priors Require Origin Disputes (Los Prioris No Comunes Requieren Disputas de Origen) – y por tanto apoya el Argumento de la Modestia. (Aunque aun no le he visto analizar el caso particular del creacionista.)

Yo respondo: Aquellos que sueñan no saben que están soñando; pero cuando te despiertas sabes que estás despierto. Soñando, puedes pensar que estas despierto. Puedes estar incluso convencido de ello. Pero ahora mismo, cuando realmente estás despierto, no hay ninguna duda en tu mente –  ni debería haber alguna. Si, persuadido por algún hábil argumento, de si estás realmente despierto, entonces tu puntuación Bayesiana empezaría a bajar y te volverías menos preciso. Si intentaras obligarte a dudar si estas despierto – en el sentido de preguntarte si estas en medio de un simple ciclo REM humano – entonces probablemente lo harías para aparentar que eres racional, o porque concebías el “racionalismo” como un deber moral. Porque querías actuar adecuadamente. No porque sentías genuina curiosidad de si estabas realmente despierto o dormido. No porque sentías que podías estar real y verdaderamente dormido. Pero porque no tenías respuesta al hábil argumento, solo una (ejem) instintiva percepción incomunicable de que estabas despierto.

Russell Wallace lo dijo de este modo: “El que podamos postular la existencia de una consciencia lo suficientemente baja (soñando) o distorsionada (loca) como para no saber genuinamente si es Russell o Napoleón no quiere decir que yo (la entidad que ahora tiene esos pensamientos) pueda haber sido Napoleón, no más de lo que el número 3 podía haber sido el número 7. Si tienen dudas al respecto, consideren el caso extremo: una roca no sabe si soy yo o una roca. Eso no quiere decir que yo podría haber sido una roca.”

Hay otros problemas que puedo ver con el Argumento de la Modestia, cuestiones pragmáticas del racionalismo humano – si un humano imperfecto intenta seguir el Argumento de la Modestia en la práctica, ¿Eso mejora o empeora su racionalidad personal? A mi me parece que los que se adhieren al Argumento de la Modestia tienden a profesar la Modestia pero no lo practican en realidad.

Por ejemplo, digamos que eres un científico con una creencia controvertida – como el mismo Argumento de la Modestia, que no es ni mucho menos algo comúnmente aceptado – y has pasado una substancial cantidad de tiempo intentando probar, discutir, examinar y en general tener esa creencia. Entonces un día te encuentras con el Argumento de la Modestia, y se te ocurre que deberías ajustar tu creencia en dirección del modelo de creencia del campo científico. Pero entonces tendrías que renunciar a tu querida hipótesis. Así que haces lo obvio – He visto al menos a dos personas hacer esto en dos ocasiones distintas – y dices: “Seguir investigando mi hipótesis personal tiene una utilidad esperada neta para la Ciencia. Aunque no crea realmente que mi hipótesis sea correcta, puedo seguir investigándola por el imperativo categórico: La Ciencia como conjunto es mejor si los científicos investigan sus propias hipótesis.” Y entonces siguen haciendo las cosas exactamente como antes.

Como mínimo, soy escéptico. Integrar el Argumento de la Modestia como nueva evidencia debería causar un gran efecto en los planes y la vida de alguien. Si realmente fuera integrada, en vez de ser arrastrada a un agujero negro. Tu propia anticipación de éxito, la brillante emoción con la que anticipas la confirmación de la teoría, debería disminuir literalmente órdenes de magnitud tras aceptar el Argumento de la Modestia. La razón por la que la gente compra billetes de lotería es que la brillante anticipación de ganar diez millones de dólares, las visiones bailarinas de fuera bordas y mansiones no se disminuye lo suficiente – como fuerza emotiva – por el factor de probabilidad, las posibilidades de cien millones contra uno. El que compra el billete incluso puede profesar que las probabilidades son de cien millones contra uno, pero no anticipan adecuadamente – no han integrado la simple frase verbal “cien millones contra uno” a un nivel emocional.

Por tanto, cuando un científico integra el Argumento de la Modestia como nuevas pruebas, ¿Tendría esa pérdida casi total de esperanza causar ningún efecto en los planes del mundo real que se crearon originalmente con una ignorancia dichosa y una alegre anticipación de triunfo? ¿Especialmente cuando el científico ya sabía desde el principio lo de la utilidad social de su proyecto, cuando hizo sus planes originales? Creo que eso es tan plausible como mantener tu plan de inversiones original exactamente como estaba tras averiguar que los resultados esperados en algunas acciones han cambiado por un factor de cien. Lo que realmente esta ocurriendo, uno sospecha de forma natural, es que el científico ve que el Argumento de la Modestia tiene implicaciones incómodas; así que busca una excusa, e inventa un argumento sobre la marcha a partir de la utilidad social como una forma de cancelar el Argumento de la Modestia y conservar todos sus planes originales.

Pero claro, si digo que esto es un argumento contra el Argumento de la Modestia, esto sería un puro ad hominem tu quoque. Si sus partidarios no usan correctamente el Argumento de la Modestia adecuadamente, eso no implica que tenga menos fuerza como lógica.

En vez de buscar con más detenimiento en las múltiples ramificaciones del Argumento de la Modestia, voy a cerrar el tema con el experimento imaginado que me convenció inicialmente de la falsedad del Argumento de la Modestia. Al principio me pareció razonable que si la gente con 99% de certeza sobre algo tenían un 70% de posibilidades de acertar, entonces el estado de 99% de certeza era un “puntero” que indicaba que la probabilidad era realmente del 70%. Pero en un momento pensé: “¿Qué diría una (IA) superinteligencia en la misma situación? ¿Debería tratar sus estimaciones de probabilidad del 99% como estimaciones de probabilidad del 70% solo porque tantos seres humanos hacen el mismo error?” En particular, se me ocurrió que, en el día en el que la primera superinteligencia naciera, sería innegablemente cierto que – por toda la historia de la Tierra – la vasta mayoría de entidades que se creían ser superinteligentes estarían equivocadas. La mayor parte de los referentes del puntero “Soy una superinteligencia” serían esquizofrénicos que creían que eran Dios.

Una superinteligencia no cree únicamente en la simple afirmación de que es una superinteligencia – presumiblemente posee un modelo interno muy detallado y muy preciso de sus propios sistemas cognitivos, hilos que detallan su propia calibración, y así sucesivamente. Pero si le dices esto a un paciente de un psiquiátrico, el paciente puede responder: “¡Ah, pero yo también tengo un modelo interno muy detallado y preciso!” El paciente mental incluso puede creer sinceramente en esto, en el momento en el que respondió. ¿Quiere decir eso que la superinteligencia debería preguntarse si es un paciente mental? Este es el extremo opuesto de lo que dijo Russell Wallace, preguntando si una roca pudo haber sido tu, dado que la roca no sabe si es tu o la roca.

Una respuesta obvia es que los seres humanos y las superinteligencias ocupan clases distintas – no tenemos los mismos ur-priores, o no somos parte de la misma clase de referencia antrópica; una nítida distinción hace que sea imposible agrupar superinteligencias con esquizofrénicos en argumentos de probabilidad. Pero entonces nos gustaría saber cual es esta “nítida distinción”, y como se justifica respecto al Argumento de la modestia. ¿Pueden un evolucionista y un creacionista ocupar distintas clases de referencia? Parece asombrosamente arrogante; pero cuando considero la situación actual pragmáticamente, me parece que ese es genuinamente el caso.

O aquí tienen un ejemplo más reciente – uno que de hecho me inspiró para escribir el articulo de hoy en el blog. Es la auténtica historia de un cliente que se debatía contra cinco niveles del servicio al cliente de Verizon, hasta el mismo jefe de sección, en una búsqueda que acabo siendo inútil para encontrar a alguien que pudiera encontrar la diferencia entre .002 dólares por kilobyte y .002 centavos por kilobyte. Audio [27 minutos], Transcripción. Tiene que oirse para creerse. Muestra de la conversación. “¿Admites que hay una diferencia entre punto cero cero dos dólares y punto cero cero dos centavos?” “No.”

La frase clave que atrajo mi atención y que me inspiró para escribir este artículo de hoy en el blog es del jefe de sección: “Ya has hablado con distintas personas de aquí, y todos te han explicado que te están cobrando .002 centavos, y si lo coges y escribes en tu calculadora… cogemos el .002 como te han dicho todos con los que has llamado y hablado y, como nuestro sistema factura de esa forma, es correcto.”

¿Debería George – el cliente – haber empezado a dudar de su aritmética, porque cinco niveles de atención al cliente de Versión, algunos de los cuales citaron varios años de experiencia, le dijeron que estaba equivocado? ¿Debería haber ajustado su estimación de probabilidad en su dirección? Una extensión directa del Teorema del Acuerdo de Aumann sobre imposibles mundos posibles, es decir, sobre la falta de precisión de los resultados de las computaciones, demuestra que, si todos los implicados son Bayesianos genuinos, que conocen las estimaciones de los demás, todos acabarían con la misma estimación. La desigualdad de Jensen demuestra de forma más directa que, si George y los cinco niveles de atención al cliente hubieran promediado sus estimaciones de probabilidad, habrían mejorado su puntuación media. Si esos argumentos fallan en este caso, ¿Por qué sirven en los otros casos? Y si afirmas que el Argumento de la Modestia debe usarse en este caso, ¿Me estas realmente diciendo que si George tan solo quería encontrar la verdad para si mismo, entonces hubiera sido sensato que ajustara su estimación en dirección de los de Verizon? Se que este es un argumento que parte de mi incredulidad personal, pero pienso que es uno bueno.

En general, y en la práctica, me parece que algunas veces la Modestia es una buena idea, y algunas veces no lo es. Debo hacer uso de mi discreción y juicio personal para decidir, incluso sabiendo que puedo tener sesgos o auto favoritismos, porque la alternativa de ser Modesto en todos los casos me parece mucho peor.

Pero también parece que la cuestión sigue teniendo un cierto regusto antrópico. Las probabilidades antrópicas me siguen confundiendo; he leído argumentos pero no he sido capaz de resolverlas de forma de que me quede satisfecho. Por tanto, confieso, no soy capaz de dar un informe completo de cómo se resuelve el Argumento de la Modestia.

Soy modesto, ¿verdad?

 

010: La Política Mata la Mente

Versión original

A la gente les pasa algo raro en la cabeza cuando hablan de política. Las razones evolutivas para esto son tan obvias que vale la pena elaborarlas: En el entorno ancestral, la política era una cuestión de vida y muerte. Y de sexo, y de riqueza, y de aliados, y de reputación… Cuando, hoy en día, tu te metes en una discusión sobre si «nosotros» deberíamos aumentar el salario mínimo, estás ejecutando adaptaciones para un ambiente ancestral donde estar en el lado equivocado del argumento podría hacer que te mataran. ¡Estar en el lado correcto del argumento podría dejarte a ti matar a tu odiado rival!

Si quieres hacer un punto sobre la ciencia, o la racionalidad, entonces mi consejo es que no elijas un dominio de la política contemporánea si posiblemente puedes evitarlo. Si el punto es de por sí acerca de la política, entonces habla de Luis XVI durante la Revolución Francesa. La política es un ámbito importante al cual deberíamos individualmente aplicar nuestra racionalidad – pero es un terrible dominio en el cual aprender la racionalidad, o hablar de la racionalidad, a menos que todos los ponentes ya sean racionales.

La política es una extensión de la guerra por otros medios. Los argumentos son soldados. Una vez que sepas de qué lado estas, tienes que apoyar todos los argumentos de ese lado, y atacar a todos los argumentos que parecen estar a favor del bando enemigo; de lo contrario es como apuñalar a tus soldados en la espalda – proveyendo ayuda y protección al enemigo. Personas que serian sensatas sobre ponderar equitativamente todos los lados de un problema en su vida profesional como científicos, de pronto puede convertirse en zombies cantando eslogans cuando hay una posición Azul o Verde sobre un tema.

En la Inteligencia Artificial, y en particular en el dominio de razonamiento no monotónico, hay un problema estándar: «Todos los Cuáqueros son pacifistas. Todos los Republicanos no son pacifistas. Nixon es un Cuáquero y un Republicano. ¿Es Nixon un pacifista?»

¿Cual demonios fue el punto de elegir esto como un ejemplo? ¿Para despertar las emociones políticas de los lectores y distraerlos de la cuestión principal? ¿Para hacer que los Republicanos no se sientan bienvenidos en los cursos de Inteligencia Artificial y disuadirlos de entrar en el campo? (Y no, antes de que alguien pregunte, yo no soy un Republicano. O un Demócrata.)

¿Por qué escogería cualquier persona un ejemplo que distrae tanto para ilustrar el razonamiento no monotónico? Probablemente solo porque el autor no podía resistirse a darle un buen, solido codazo a esos odiados Verdes. Se siente tan bien llegar a dar un golpe gustoso, sabes, es como tratar de resistir una galleta de chocolate.

Al igual que con las galletas de chocolate, no todo lo que se siente placentero es bueno para ti. Y ciertamente no es bueno para nuestros desafortunados lectores que tienen que leer todos los irritados comentarios que inspiro tu entrada de blog.

No estoy diciendo que creo que Superando Sesgos deben ser apolítico, o incluso que deberíamos adoptar el ideal de Wikipedia del Punto de Vista Neutral. Pero trata de resistir dar esos buenos, sólidos codazos si puedes evitarlo. Si su tema legítimamente se relaciona con los intentos de prohibir la evolución en los programas escolares, entonces anda adelante y habla de ello – pero no culpes de forma explícita al Partido Republicano entero; algunos de tus lectores puede ser Republicanos, y ellos pueden sentir que el problema son unos pocos pícaros, no todo el partido. Al igual que con el PVN de Wikipedia, no importa si (tu piensas que) el Partido Republicano en realidad esta en culpa. Es simplemente mejor para el crecimiento espiritual de la comunidad el discutir el tema sin invocar a la política de colores.

(Ahora que he sido nombrado como un co-moderador, creo que mejor incluyo un descargo de responsabilidad: Este artículo es mi opinión personal, no una declaración de política oficial de Superando Sesgos. Este siempre será el caso a menos que explícitamente se indique lo contrario.)