jueves, 11 de febrero de 2021

Las Creencias son cuestión de Poder - Psicología y Micromanipulación I/II

Si tenemos claro cuáles son las formas en que nos intentan manipular no solo seremos capaces de neutralizar las tácticas de quienes nos explotan, sino que vislumbrando entre los subterfugios usados contra nosotras nos meteremos en sus propias mentes descubriendo el origen de sus miedos. El abuso no es signo de fortaleza, sino de debilidad y sufrimiento.

Salud! PHkl/tctca
_________________
Traducción tarcoteca - Psychology: Pretending There Is Nothing Wrong | by Roddriver | ElephantsInTheRoom | 1 Feb, 2021 | Medium vía Global Research. Primer artículo de dos, sigue en "Psicología del Poder, el Dinero y sus Consecuencias Sistémicas - Psicología y Macromanipulación II/II"

“Una de las lecciones más tristes de la historia es esta: si nos engañan por el tiempo suficiente, tendemos a rechazar cualquier evidencia de dicho engaño. Ya no estaremos interesados ​​en descubrir la verdad. El engaño nos habrá capturado. Es simplemente demasiado doloroso reconocer, incluso ante nosotros mismos, que nos han cazado. Una vez que le das a un charlatán poder sobre ti, casi nunca lo recuperas”. (1) Carl Sagan

En 2011 hubo una devastadora fusión nuclear en la planta de energía nuclear de Fukushima en Japón. Una "investigación" concluyó que:
“Sus causas fundamentales se encuentran en las convenciones arraigadas de la cultura japonesa, nuestra obediencia reflexiva, nuestra renuencia a cuestionar la autoridad, nuestra devoción por plegarnos al programa”. (2)

Sin embargo, no hay nada específicamente japonés en estas actitudes. Una mentalidad similar explica muchos de los problemas discutidos en otras publicaciones. Esta publicación es la primera de dos que brinda algunas ideas sobre por qué nos comportamos como lo hacemos. ¿Por qué personas poderosas en gobiernos y corporaciones cometen tantos crímenes? ¿Por qué la gente tolera a un gobierno que comete crímenes de guerra? ¿Por qué la gente hace la vista gorda cuando las grandes corporaciones realizan repetidamente actividades poco éticas? ¿Por qué nos engañamos tan fácilmente?

¿Queremos realmente conocer la Verdad? Negación y Autoengaño

Stanley Cohen escribió un libro titulado "States of Denial" [Estados de negación], que analizaba por qué poblaciones enteras permiten que sus gobiernos cometan atrocidades. Describió una mentalidad que era "simultáneamente saber y no saber". Sabemos algo parcialmente, pero no queremos descubrir el resto, por miedo a descubrir algo perturbador. (3) El cerebro humano es capaz de introspección y pensamiento independiente, pero nos hemos condicionado a no preguntarnos demasiadas cosas difíciles. preguntas, porque tenemos miedo de las respuestas. Somos vagamente conscientes de que escogemos no mirar los hechos, sin comprender realmente de qué nos estamos evadiendo.

A esto se le suele llamar "ceguera intencionada" o "negación". Abarca una amplia gama de fenómenos, desde gobiernos que cometen atrocidades y empresas que se comportan de forma poco ética, hasta personas que intentan convencerse a sí mismas de que sus parejas no están teniendo aventuras. Si cometemos o somos testigos de prácticas dañinas, intentamos engañarnos a nosotros mismos haciéndonos creer que son razonables. 
- Proponemos justificaciones, 
- usamos eufemismos para evitar descripciones precisas e 
- ignoramos las consecuencias. 
(4) Esta forma de autoengaño permite que individuos, organizaciones e incluso países enteros nieguen el conocimiento de cosas que los hacen sentir incómodos.

Numerosos empleados gubernamentales y corporativos que han participado en comportamientos poco éticos han admitido posteriormente que sabían que sus acciones estaban mal, pero lograron convencerse a sí mismos de que las reglas normales no se aplicaban. La mayoría de la gente en Gran Bretaña y Estados Unidos, incluidos los periodistas, tiene cierto entendimiento de que la destrucción de Irak y Libia son crímenes monstruosos, pero se sienten tan incómodos admitiendo esto que se engañan a sí mismos creyendo que no es verdad.

Lavado de cerebro: nos mienten todos los días

Repetición
Cuantas más personas estén expuestas a una idea, es más probable que la acepten. 

Si escuchamos la misma información de los medios una y otra vez, llegamos a creer que debe ser verdad. Si también estamos rodeados de amigos, familiares y colegas que repiten la misma perspectiva, porque también han sido bombardeados por la misma información engañosa de los medios, entonces cada vez es más difícil decir que no es cierto.

Distorsión
Convencer a las personas de que crean versiones distorsionadas de los hechos es una forma de lavado de cerebro. 

A todos los soldados de la historia que han matado a personas en otro país se les ha lavado el cerebro hasta cierto punto. Se les hace creer que disparar a las personas, arrojarles bombas o enterrarlas vivas debajo de un tanque es razonable, incluso si las personas asesinadas están tratando de rendirse. 

A la gente común que apoya estas políticas también se les ha lavado el cerebro para aceptar estas políticas. 

Deshumanización
Esto está relacionado con otro aspecto de la psicología conocido como deshumanización: la capacidad de ver a los demás como menos que humanos. (5) Esto juega un papel importante para permitir que los gobiernos se salgan con la suya con los crímenes de guerra en el extranjero, porque las personas que son masacradas, como los musulmanes en el Medio Oriente, son diferentes a nosotros.

Sesgo de confirmación y un "marco de entendimiento" [entiendo lo que quiero]

Los psicólogos han reconocido que nuestras creencias son una parte importante de cómo nos vemos a nosotros mismos. 

Preferimos recibir información que confirme nuestras opiniones o creencias existentes, porque nos hace sentir bien con nosotros mismos. 

Los psicólogos utilizan el término "disonancia cognitiva" para describir una situación en la que las personas se sienten incómodas porque se les presenta evidencia que contradice sus creencias existentes. 

Tratamos de encontrar formas de lidiar con esta incomodidad, ya sea ignorando la información o utilizando una lógica defectuosa [falsos positivos y negativos] para justificar nuestras creencias existentes. Esto se conoce como "sesgo de confirmación", (6) y a menudo se divide en tres áreas principales.

En primer lugar, la búsqueda sesgada es donde buscamos activamente información que respalde nuestras opiniones existentes. La mayoría de los lectores de periódicos sabrán que eligen un periódico en el que los escritores expresan puntos de vista similares a los suyos.

En segundo lugar, la interpretación sesgada es donde interpretamos que la evidencia ambigua apoya nuestra posición actual. También encontramos razones para descartar la evidencia que contradice nuestras creencias, al convencernos de que la fuente no era confiable.

Finalmente, la memoria sesgada es donde recordamos información que respalda nuestras creencias existentes y olvidamos la información que las contradice. Con el tiempo, la mayoría de las personas olvidan los detalles de lo que han aprendido. Crean un marco de comprensión o un marco de conocimiento. Esto es como una descripción general de cómo vemos el mundo. Si la nueva información es coherente con este marco, se adapta fácilmente al marco, refuerza el marco y puede ser recordada. Si la nueva información no encaja fácilmente en el marco, entonces no sabemos qué hacer con ella, por lo que tenderá a ser descartada y olvidada rápidamente.

El apego a las creencias parece ser similar al apego por las personas. Investigaciones recientes han demostrado que algunas partes del cerebro se desactivan cuando pensamos en las personas que amamos. En particular, algunas de las áreas responsables del pensamiento crítico. Lo mismo parece ser cierto cuando pensamos en creencias. (7) Nuestro cerebro trata de manera diferente cualquier información que pueda desafiar nuestras creencias. 

El efecto parece ser más fuerte para los problemas cargados de emociones y para las creencias profundamente arraigadas. Este es particularmente el caso cuando la gente cree en una ideología poderosa, o una gran idea, como los "mercados". En su mayoría, no nos damos cuenta de cuán profundamente estas grandes ideas afectan nuestra forma de pensar. El sesgo de confirmación puede llevar a una situación en la que las personas seguirán creyendo algo, incluso cuando la evidencia lo contradiga fuertemente. (8)

Las ideas parecen "normales" si muchas otras personas las comparten, incluso si están equivocadas

Si una minoría de personas tiene una visión inusual, como "el mundo se está acabando", a la mayoría le parecen extrañas. Pero cuando las ideas se comparten ampliamente, parecen menos extrañas e incluso pueden llegar a parecer normales. 

Esto fue evidente durante el período previo a la crisis financiera de 2008. La creencia en "los mercados" se había reforzado cada vez más, y pocas personas los cuestionaban abiertamente. La mayoría de las personas, incluidos los supuestos expertos, optaron por pasar por alto los efectos adversos ampliamente reconocidos de la desregulación financiera, como las explosiones de burbujas financieras catastróficas.

Se debe en parte a que las creencias de las personas tienden a desarrollarse con el tiempo. Mientras se forman estas creencias, se pueden cambiar, pero una vez que se han establecido, se vuelve muy difíciles de modificar. 

En particular, si alguien ha expresado su opinión, siente que cambiar de opinión le hace parecer débil. (9) Con el tiempo, siente que tienen mucho que perder y se vuelve casi imposible cambiar de opinión. 

Si un periodista se ha ganado la vida apoyando abiertamente las invasiones de otros países, le resultará muy difícil admitir que ha estado apoyando los peores crímenes de este siglo.

Esto es particularmente relevante para la creencia de que las personas que hemos elegido para gobernar nuestro país son personas razonables con buenas intenciones. Queremos creer que no son sociópatas locos y belicistas, por lo que damos todo tipo de explicaciones para sus crímenes. Si matan a dos millones de personas en Irak, nos convencemos de que su explicación, el que estaban preocupados por las armas de destrucción masiva, el terrorismo o los derechos humanos, debe ser correcta. Aunque, en el fondo, sabemos que son puras mentiras.

Obediencia destructiva: causar daño siguiendo órdenes

Algunos experimentos famosos se han centrado en el papel de la obediencia a la autoridad. El más conocido de estos fue realizado inicialmente por Stanley Milgram en 1963. (10) Estos estudios examinaron por qué los individuos obedecen a las autoridades incluso cuando la tarea es moralmente repugnante, cuando no hay recompensa por hacerlo y donde no hay castigo por la desobediencia. En el experimento, se dijo a las personas que aplicaran descargas eléctricas severas a otras personas. Los estudios encontraron que muchas personas obedecerán esas órdenes. Se han realizado variaciones de los experimentos en todo el mundo, para ver si los resultados son ciertos en otros países. Si bien los detalles a veces varían, el principio general de que muchas personas harán cosas terribles cuando siguen órdenes parece ser cierto. (11)

Se han probado estudios similares en el mundo real, donde se observó a las enfermeras para ver si administraban dosis letales de medicamentos por orden de un médico. Una vez más, quizás sorprendentemente, muy pocos cuestionaron la instrucción. (12) 

La evidencia no experimental de estos efectos en el mundo real está muy extendida. Se cree que una cuarta parte de los accidentes de avión son causados ​​por "obediencia destructiva" (13) y hay un famoso accidente de barcos de guerra que se estrellaron porque nadie cuestionó sus órdenes [HMS Victoria 1887]. (14)

Esta obediencia indudablemente crea problemas repetidos en muchas industrias. Las fallos de seguridad debido al recorte de costos son un problema común, incluso cuando la gente sabe que los recortes crearían peligros. Esto crea una situación en la que la ética, la legalidad y la seguridad se vuelven irrelevantes debido a las órdenes de los jefes. Se han producido numerosos vertidos de petróleo y explosiones de gas, como el de la refinería de petróleo de la ciudad de Texas 2005 o el de la plataforma petrolera Deepwater Horizon 2010 , debido a los ahorros de costos y recortes en las normas de seguridad. (15)

Conformidad y la Desaparición de la ética

La conformidad [acomodación social] se da cuando la gente trata de encajar con los que les rodean, de ajustarse al grupo. (16) 

Los experimentos más conocidos en esta área fueron realizados por Solomon Asch en 1951. (17) Los sujetos fueron dispuestos en grupos que tenían que hacer tareas simples, como contar el número de tañidos de una campana. Sin que el sujeto lo supiera, todos los demás miembros del grupo estaban "incluidos" en el experimento y se les había dicho que nombraran un número incorrecto de tañidos. De manera abrumadora, los sujetos estuvieron de acuerdo con el resto del grupo, en lugar de indicar el número correcto. Resulta que, bajo presión social, la mayoría de nosotros preferiríamos estar equivocados que solos. La independencia mental puede conducir a una sensación de aislamiento y afectar nuestra autoestima, por lo que intentamos protegernos encajando en el grupo. (18) Este tipo de investigación se ha repetido constantemente. Uno de los hallazgos más interesantes del experimento fue que algunos participantes no tienen conciencia de haberse "conformado", es completamente subconsciente. (19)

La conformidad puede explicar una serie de fenómenos que se han observado. En particular, los investigadores han notado 
- el pensamiento de grupo, donde el deseo de armonía dentro de un grupo anula una discusión honesta de alternativas. La gente es reacia a sugerir opiniones disidentes debido a su deseo de conformarse. 
- La polarización de actitudes es donde grupos de pensadores de ideas afines tienden a desarrollar puntos de vista aún más extremos. 

Parece muy probable que ambos funcionen cuando grupos de políticos persiguen políticas exteriores extremistas como la guerra. 

Los líderes designan a pensadores de ideas afines como asesores, y las personas con opiniones desafiantes tienden a ser excluidas de la toma de decisiones.

La evidencia de conformidad en el mundo real también sugiere que los estándares éticos individuales disminuyen en los grupos. Es poco probable que los estudiantes de medicina jóvenes denuncien si ven algo poco ético. Sin embargo, las investigaciones indican que es incluso menos probable que denuncien después de 3 años de formación médica y ética. (20) Los médicos se muestran reacios a implicar a sus colegas, incluso cuando la evidencia de una incompetencia que condujese a la muerte fuera clara. (21)

Muchas personas involucrados en actividades financieras en los años de auge previos a la crisis financiera mundial de 2007 han explicado que no había un sentido claro de las normas morales. Si todos los que te rodean son recompensados ​​por hacer negocios fraudulentos, ¿Qué es lo normal? Si las empresas están gastando montañas de dinero presionando [sobornando, cabildeando] políticos para que cambien las leyes, esto les hace creerse que las leyes no deben tomarse en serio, son simples obstáculos que deben ser eludidos. (22)

La obediencia y la conformidad son una combinación peligrosa

En muchos lugares de trabajo[la mayoría], tanto la obediencia como la conformidad están presentes. El personal obedece a sus superiores, pero también quiere adaptarse para encajar con sus compañeros. En la práctica, oponerse al consenso es difícil por numerosas razones. (23) La más obvia es que muchos de los sistemas que tenemos actualmente no brindan estímulos o recompensas tangibles por oponerse al sistema o desafiar decisiones. De hecho, sucede todo lo contrario. Cuestionar a los colegas, y en particular a los superiores, puede tener un impacto negativo en el trabajo, la reputación, perspectivas de carrera y recompensas financieras.

__________________

Rod Driver es un académico particularmente interesado en neutralizar la propaganda estadounidense y británica de hoy día. Este es el vigésimo de una serie titulada Elefantes en la habitación, que intenta proporcionar una guía para principiantes para comprender lo que realmente está sucediendo en relación con la guerra, el terrorismo, la economía y la pobreza, sin las tonterías vertidas por los principales medios de comunicación.

Notas
1) Carl Sagan, The Demon-Haunted World: Science as a Candle in the Dark, 1995

2) Justin McCurry, ‘Japanese cultural traits ‘at heart of Fukushima disaster’’, Guardian, 5 July 2012, at https://www.theguardian.com/world/2012/jul/05/japanese-cultural-traits-fukushima-disaster

3) Stanley Cohen, States of Denial, 2001, pp. 24 – 33

4) Margaret Heffernan, Wilful Blindness: Why we ignore the obvious at our peril, 2011, pp.258-259

5) https://en.wikipedia.org/wiki/Dehumanization

6) https://en.wikipedia.org/wiki/Confirmation_bias

7) Margaret Heffernan, Wilful Blindness: Why we ignore the obvious at our peril, 2011, pp. 45-46

8) Lee Ross and Craig Anderson, ‘Judgement under uncertainty: Heuristics and biases’, 1974, Science 185 (4157): 1124-31

9) Margaret Heffernan, Wilful Blindness: Why we ignore the obvious at our peril, 2011, 316

10) http://en.wikipedia.org/wiki/Stanley_Milgram

11) Brian Resnick, ‘The Stanford prison experiment was massively influential. We just learned it was a fraud’, Vox, 13 June 2018, at https://www.vox.com/2018/6/13/17449118/stanford-prison-experiment-fraud-psychology-replication

12) https://en.wikipedia.org/wiki/Hofling_hospital_experiment

C.K.Hofling et al, ‘An experimental study in nurse-physician relationships’, Journal of nervous and mental disease, 143(2): 171-80, at https://pubmed.ncbi.nlm.nih.gov/5957275/

13) Eugen Tarnow, ‘Self-destructive obedience in the airplane cockpit and the concept of obedience optimisation’, in Thomas Blass (ed.) Obedience to Authority: Current perspectives on the Milgram paradigm, 2000, at https://www.taylorfrancis.com/chapters/self-destructive-obedience-airplane-cockpit-concept-obedience-optimization-eugen-tarnow/e/10.4324/9781410602022-11

14) https://en.wikipedia.org/wiki/HMS_Victoria_(1887)

15) http://en.wikipedia.org/wiki/Texas_City_Refinery_explosion

https://en.wikipedia.org/wiki/Deepwater_Horizon_oil_spill

16) https://en.wikipedia.org/wiki/Conformity

17) Asch, S.E., ‘Opinions and Social Pressure’, Scientific American, 1955, 193(5) pp.3-5

18) Margaret Heffernan, Wilful Blindness: Why we ignore the obvious at our peril, 2011, p.296

19) G. Berns et al, ‘Neurobiological correlates of Social Conformity and Independence During mental Rotation’, Journal of Biological Psychiatry, no.58, pp.245-253

20) J. Goldie et al, ‘Students attitudes and potential behaviour with regard to whistle blowing as they pass through a modern medical curriculum’, Medical Education, 37, pp.368-375, at https://pubmed.ncbi.nlm.nih.gov/12654122/

21) ‘Learning from Bristol: Report of the Public Inquiry into children’s heart surgery at the Bristol Royal Infirmary 1984-1995’ (also known as The Kennedy Report), July 2001, at http://www.wales.nhs.uk/sites3/documents/441/The%20Kennedy%20Report.pdf

22) Margaret Heffernan, Wilful Blindness: Why we ignore the obvious at our peril, 2011, 202

23) Stanley Cohen, States of Denial: Knowing about atrocities and suffering, 2001, p.19

No hay comentarios:

Publicar un comentario

Tu opinión es importante