lunes, 12 de marzo de 2018

#ElFuegoyLaFuria de Trump contra la ira contenida de Kim Jong-un: lo que sus gestos esconden



La semana pasada, el presidente estadounidense, Donald Trump, aceptó reunirse con su homólogo norcoreano, Kim Jong-un, en lo que será una cumbre histórica que se celebrará el próximo mes de mayo. El «sí quiero» del ocupante del Despacho Oval dejó estupefactos a sus interlocutores e inundó las páginas de los tabloides internacionales durante días, ya que hace unos meses este encuentro habría sido impensable.

Nada más llegar al poder, Trump advirtió de que no sería tan paciente como su antecesor, Barack Obama, con Corea del Norte. Y, desde entonces, la tensión ha ido en aumento: el régimen de Pyongyang no paró de hacer ensayos con misiles y de vanagloriarse de ello a través de vídeos propagandísticos; Washington se remangó la camisa para sacar su músculo bélico y lucirlo ante el resto de potencias militares; y el cruce de amenazas e insultos entre los dirigentes de ambos países se convirtió en una constante.

El pasado mes de agosto, el presidente norteamericano aseguró que, si continuaba amenazando a su nación, el Ejecutivo norcoreano se enfrentaría «al fuego y la furia» estadounidenses. Sin embargo, la agresividad de sus palabras contrastaba con «una gestualidad estática, apagada», que nada tiene que ver con la que suele mostrar en sus apariciones públicas, explica el experto en comunicación verbal José Luis Martín Ovejero en su página web. Cuenta además que sus brazos cruzados no dejaban ni tan siquiera que se le vieran las manos y actuaban como barrera; que inclinaba el cuerpo hacia atrás, dejando entrever «poco compromiso con lo que dice»; que su rostro no reflejaba ira a pesar de la dureza del mensaje que lanza; que lía un guion ya preparado «aunque intentase disimularlo».

En palabras del experto, «la comunicación no verbal chocaba de manera frontal con el mensaje. El lenguaje estaba cargado de agresividad, sin embargo, su comunicación no verbal era recatada, discreta, contenida. Existía una incoherencia total, lo que podría significar que este discurso, o le fue impuesto por otros o, aunque lo hiciera él, no parecía confiar en lo que estaba diciendo. En general, parecía no sentirlo».



Casi cuatro meses más tarde y con dos banderas de Estados Unidos a su espalda, un sardónico Trump tildó de «hombre cohete» y «cachorro enfermo» a Kim Jong-un. En algunos momentos de su discurso, desafiante, sacaba pecho, «algo que se asocia a tratar de ganar más espacio en posiciones ofensivas». Como de costumbre, su mensaje estuvo acompañado «de mucha gestualidad de sus manos»; un tipo de acción que «constata su compromiso sincero con sus palabras». En este caso, al despreciar e insultar a su adversario, el efecto se multiplicó, «dado que sus manos se sumaron a sus palabras». Además, en varias ocasiones sacó a pasear el dedo índice estirado –dedo acusador–, que posee una connotación agresiva.

El presidente norcoreano no tardó en responder a las provocaciones de Trump y, a través de la voz de Ri Chun-hee, la incombustible presentadora de noticias del estado asiático, lo llamó «viejo chocho». Con la pelota en su tejado, en lo que parecía un duelo de (falta de) elegancia, el jefe de Estado norteamericano calificó al norcoreano de «bajo y gordo» –esta vez, vía Twitter–.




Además, para empeorar una relación que parecía estar herida de muerte, Kim Jong-un ofreció un discurso de Año Nuevo en el que repetía, por enésima vez, sus amenazas a Estados Unidos. Rodeado del símbolo de la hoz y el martillo, tras un enorme atril, ante siete micrófonos ordenados a la perfección y sin más objetos que distrajeran la atención de lo importante («el líder y la ideología que representa»); aseguró que le bastaba pulsar un botón para arrasar el país norteamericano.

Martín Ovejero afirma que en la puesta en escena «todo era a lo grande». También expone que, a diferencia de Trump, el dirigente asiático prescindió de aspavientos y «parecía firme y tranquilo en su discurso», aunque –por contra– «su cuerpo oscilaba [se balanceaba] de derecha a izquierda, cargando su peso en una u otra pierna». A pesar de haber llegado con folios, no les echó el ojo «y mantuvo una mirada directa que nunca descendía». «Hablaba a golpes de voz, algo también asociado a la firmeza en las propias ideas que se transmiten y que se quieren remarcar, como el subrayado o la negrita en un texto escrito», cuenta el experto. Y, al mencionar a Estados Unidos, en su cara asomó «una microexpresión de ira».

Arenga a las tropas
También es importante analizar cómo se dirigen a sus tropas, de las que tanto presumen, ambos mandatarios. Para conmemorar el 70 aniversario del Ejército norcoreano, se organizó un desfile militar, justo antes de que los Juegos Olímpicos de Invierno, celebrados en la vecina Corea del Sur, dieran el pistoletazo de salida. Para la ocasión, Kim Jong-un leyó un discurso, palabra por palabra, «lo que lo hizo más solemne, pero a la vez menos emotivo», señala el experto en comunicación no verbal, quien además añade que «la imagen de sus altos mandos militares, de la tropa y del público era la de un solo hombre. Nadie destacaba, nadie era diferente. La idea que se transmitía era la de que si el país ataca o se defiende no van a existir fisuras». También indica que «todos los mandos superiores y otros miembros del Ejército eran hombres. Las mujeres que salían en estas escenas o estaban entre el público o eran las que tocan instrumentos musicales en el desfile».

La escena es diametralmente opuesta a la que protagonizó Trump en el –también– 70 aniversario de las Fuerzas Aéreas estadounidenses: «La imagen era la del valor a las diferencias y a la libertad individual. Aunque todos son militares, aquí se distinguían personas de razas diversas, hombres y mujeres en plano de igualdad, en distintas posiciones corporales: unos miraban a Trump pero otros no, unos sacaban fotos con sus móviles y otros solo escuchaban el mensaje». Martín Ovejero agrega que el magnate no leyó el discurso, «una –al menos aparente– improvisación que lo hizo más cercano a quienes le escuchaban». «Si bien, su falta de gestualidad en este acto nos indica que estaba muy preparado y midiendo sus palabras», concluye el experto.

http://www.abc.es/internacional/abci-lenguaje-no-verbal-fuego-y-furia-trump-contra-contenida-jong-un-gestos-esconden-201803122244_noticia.html


“Tienes cara de…”: lo que nos dice el rostro



Alegría, asco, ira, miedo, sorpresa y tristeza. Son sentimientos que se manifiestan en nuestro rostro y a la vista de los demás. Son cotidianamente reconocibles en cuestión de milisegundos. Detectar estas emociones faciales es una capacidad de lo que en psicología se conoce como ‘Teoría de la Mente’, una habilidad para inferir estados mentales en las personas que nos rodean.

En función de esto, un estudio de la Universidad de Flores (Argentina) se propone adaptar localmente la Batería de Lectura de la Mente en el Rostro, originaria de Cambridge, Inglaterra, y así establecer normas y validar esta tarea de reconocimiento emocional, en cuyo rendimiento tienen incidencia variables como el sexo, la edad y el nivel educacional. Para ello, se administrará a 150 adultos jóvenes y 150 adultos mayores sin patología una versión traducida y adaptada de esta prueba. Se les mostrarán cincuenta videos, más dos de prueba, en los que distintos actores de diferentes edades, etnias y sexos representan una emoción. Los participantes deben elegir, entre cuatro opciones, cuál de ellas se ajusta mejor al video mostrado.

“La Teoría de la Mente –explica el psicólogo Pablo Gómez, director del proyecto– no es simplemente una teoría, sino una habilidad, así como la memoria o la atención, que nos permite representar los deseos, las creencias y sentimientos de los demás con independencia de los propios”.

Según el investigador, la lista de emociones básicas y los criterios para catalogar una emoción como tal varían. Una de las clasificaciones más extendidas es la de Paul Ekman, psicólogo norteamericano pionero en este campo, que sostiene que las emociones básicas son aquellas de expresión universal, innata, y que no contienen otras emociones como parte. Allí aparecen las citadas anteriormente: alegría, asco, ira, miedo, sorpresa y tristeza. Por el contrario, científicos escoceses plantearon recientemente que las emociones básicas no son seis sino cuatro, dado que consideran que el miedo y la sorpresa, así como la ira y el asco, comparten movimientos faciales y pertenecen a la misma categoría.

“Con las emociones secundarias –amplía Gómez– pasa algo similar, en cuanto a que no hay un criterio uniforme pero se acepta comúnmente que son aquellas que surgen de la combinación de emociones básicas y su expresión está más moldeada por el ambiente. Por ejemplo, Robert Plutchik, otro especialista, sostiene que el susto sería la combinación de miedo y sorpresa, mientras que la mezcla de tristeza y sorpresa daría decepción”.

La nueva batería ya está íntegramente traducida, tomando de referencia las dos versiones argentinas anteriores, y los investigadores comenzaron a administrarla en sus grupos de estudio. Con datos parciales, se revisarán nuevamente los estímulos y las opciones de respuesta ofrecidas a los participantes. El objetivo es que esta adaptación y sus normas estén disponibles, tanto para uso clínico como para investigación.

Si bien el proyecto de UFLO transita su etapa inicial, los investigadores advierten algunas particularidades desde el punto de vista de los estímulos. Por ejemplo, reconocer emociones en rostros de personas mayores es más difícil, dado los cambios en la musculatura y la presencia de arrugas. Asimismo, también está descripto que es más sencillo reconocer emociones en rostros de personas de nuestro mismo rango etario, siendo más difícil para adultos mayores reconocer jóvenes, y viceversa. “Varios estudios indican que hay menor activación en la amígdala cerebral –órgano central para la detección de emociones– de los adultos mayores, en comparación con los adultos más jóvenes, cuando se ven expresiones emocionales, especialmente ante emociones negativas. Algunos argumentaron que las dificultades en el reconocimiento emocional entre adultos mayores podrían deberse a cambios relacionados con la edad en el volumen del cerebro social, particularmente en las áreas frontales y temporales”, explica Pablo Gómez.

“Excluimos participantes con enfermedad neurológica o psiquiátrica, que no sean de habla hispana, así como a aquellos con dificultades severas en la comprensión de consignas, o que no hayan podido completar la tarea”, agrega el especialista.

Dada su relevancia como factor mediador entre los aspectos cognitivos y la adecuación social del individuo, la cognición social es actualmente un foco importante de investigación y su tratamiento en nuestro país es toda una novedad. “El desarrollo de normas locales contribuye al diagnóstico y seguimiento de patologías que presentan alteraciones en Teoría de la Mente, así como una correcta valoración de estos déficits abriría la posibilidad a un abordaje terapéutico más puntual y efectivo”, señala Gómez. De todas maneras, la Lectura de la Mente en los Ojos “adaptada” no resultó tan distinta de la original inglesa. “Siempre me gustó pensar que los latinos somos más cálidos que los británicos y que por eso tendríamos un mejor desempeño en este tipo de tareas, pero la evidencia no parece demostrarlo”, cierra el psicólogo. (Fuente: Argentina Investiga)


http://noticiasdelaciencia.com/not/27721/-ldquo-tienes-cara-de-hellip-rdquo-lo-que-nos-dice-el-rostro-/


martes, 6 de marzo de 2018

El reconocimiento facial podrá leer las emociones de tus empleados


La tecnología de reconocimiento facial nos permite pagar el almuerzo, desbloquear un teléfono e incluso puede hacer que nos arresten. Actualmente, esa tecnología está avanzando hacia una nueva dirección: los algoritmos no sólo están aprendiendo a reconocer quiénes somos, sino también lo que sentimos.

La llamada tecnología de reconocimiento de emociones está en sus comienzos. Pero las compañías de inteligencia artificial (IA) afirman que la tecnología tiene el poder de transformar el reclutamiento.

Sus algoritmos, según dicen, pueden descifrar cuán entusiasta, honesto o dinámico puede ser un solicitante de empleo, y ayudar a los empleadores a descartar candidatos con características indeseables. Los empleadores, incluyendo a Unilever, ya están comenzando a utilizar la tecnología.

Human es una compañía “startup” con sede en Londres, fundada en 2016, que analiza aplicaciones de trabajo basadas en video. La compañía afirma que puede detectar las expresiones emocionales de posibles candidatos y relacionarlas con rasgos de personalidad. Sus algoritmos recopilan la información al descifrar expresiones faciales subliminales cuando el solicitante responde preguntas.

Un entrevistador tendrá prejuicios, pero con la tecnología no juzgan la cara sino la personalidad del solicitante"
Yi Xu, fundadora y directora ejecutiva de Human
Human le envía al reclutador un informe que detalla las reacciones emocionales de los candidatos a cada pregunta de la entrevista, con puntajes en relación con características que especifican cuán “honesto” o “apasionado” es un solicitante.

“Si el reclutador dice: ‘Estamos buscando al candidato más curioso’, pueden encontrar a esa persona comparando los puntajes de los candidatos”, declaró Yi Xu, la fundadora y directora ejecutiva de Human.

Los reclutadores aún pueden evaluar a los candidatos durante una entrevista de la manera convencional, pero existe un límite en cuanto a la cantidad de candidatos con la que pueden reunirse o en cuanto a la cantidad de aplicaciones en video que pueden ver. Xu ha comentado que la tecnología de reconocimiento de emociones de su empresa ayuda a los empleadores a sondear un grupo más amplio de candidatos y a preseleccionar a personas que tal vez no hubieran considerado.

“Un entrevistador tendrá prejuicios, pero con la tecnología no juzgan la cara sino la personalidad del solicitante”, comentó ella. Uno de los objetivos, afirmó, es superar la discriminación étnica y de género en la contratación.

Frederike Kaltheuner, asesora de políticas sobre innovación de datos en Privacy International, una organización de campañas global, está de acuerdo en que los entrevistadores humanos pueden ser parciales. Pero ella ha dicho que: “Los nuevos sistemas conllevan nuevos problemas”.

El mayor problema es el relacionado con la privacidad y lo que ocurre con los datos una vez que se analizan. Ailidh Callander, una oficial legal en Privacy International, dijo que no está claro si los datos utilizados para entrenar a los algoritmos de reconocimiento de emociones -como los obtenidos durante las entrevistas de trabajo basadas en video- cuentan como “personales” y si se aplica la legislación de privacidad de datos.

En la década de 1970, los psicólogos estadounidenses Paul Ekman y Wallace V. Friesen desarrollaron una taxonomía de las emociones humanas llamada Sistema de Codificación de Acción Facial (FACS, por sus siglas en inglés). Usando el sistema, un especialista en el FACS puede detectar si una sonrisa es sincera o no simplemente analizando una fotografía. A la inteligencia emocional artificial se le enseña a interpretar expresiones faciales de forma similar.

Ekman, quien actualmente dirige el Paul Ekman Group, una empresa que capacita a especialistas en reconocimiento de emociones, declaró que el logro de una inteligencia emocional artificial confiable basada en sus métodos es posible. Pero él agregó: “Nadie ha publicado investigaciones que demuestren que los sistemas automatizados son precisos”.

Declaró que incluso si la inteligencia emocional artificial fuera posible, las personas que interpretan los datos, en este caso los empleadores, también deberían recibir capacitación para descifrar correctamente los resultados. “El FACS puede decirte que alguien está apretando sus labios, pero esto puede significar diferentes cosas según la cultura o el contexto”, comentó.

Las personas difieren en su capacidad para manipular sus emociones con el fin de ‘engañar’ al sistema, y Ekman apuntó: “Si las personas saben que las están observando, cambian su comportamiento”. Aquellos a quienes se les dice que sus emociones serán analizadas se cohíben.

Según HireVue, Unilever ha ahorrado 50 mil horas de trabajo durante 18 meses desde que puso gran parte de su proceso de contratación en línea y comenzó a usar la plataforma de entrevistas basada en vIdeo. HireVue integró la tecnología de reconocimiento de emociones a su servicio hace aproximadamente dos años y le vendió su servicio a Unilever.

“Los reclutadores tienen la oportunidad de dedicar su tiempo a las mejores personas en lugar de a quienes lograron pasar por la revisión del currículum”, comentó Loren Larsen, el director de tecnología de HireVue, con sede en Salt Lake City. “Tú no eliminas a la persona adecuada porque fue a la escuela equivocada”.


Related Posts Plugin for WordPress, Blogger...