Etiqueta: algoritmos

  • Algoritmos para gestionar personas

    Cristina Simón (I)
    Profesora del IE Business School

    Relacionadas

    Los algoritmos están de moda. Los podemos definir como un programa informático que permite hacer predicciones aplicando un conjunto de leyes de probabilidad a una gran base de datos. Están presentes en nuestra vida cotidiana, como cuando seguimos la ruta de tráfico sugerida por Google Maps, escuchamos música de Spotify o salimos de compras por Amazon, y muchas veces nos parece que nos conocen mejor que nosotros mismos.

    La tecnología, con su poder de fascinación, nos genera la ilusión de que un sistema informático puede tomar decisiones más eficientemente que un humano.

    Tengo mis dudas de que esto llegue a ser así algún día, pero desde luego no ocurrirá en un futuro inmediato. Por tanto, debemos evitar la tentación de lanzarnos a incorporar algoritmos a nuestros procesos de gestión, dado que ya hay un mercado desarrollado para diferentes áreas empresariales y por lo tanto es fácil caer en ella.

    Esto puede ser especialmente peligroso en el mundo de la gestión de personas, puesto que las consecuencias de una decisión sesgada o simplemente de mala calidad pueden ser de gran relevancia para terceros implicados.

    Los algoritmos ya se usan en la selección o en el seguimiento del rendimiento de algunos trabajos, como los ‘call centers’.

    También estiman qué trabajadores son los más propensos a dejar la compañía, o cuáles son los mejores candidatos a puestos de promoción.

    Los partidarios de esta tecnología señalan los sesgos que tienen habitualmente los mánagers a la hora de evaluar a otras personas, ya sean candidatos en un proceso de selección o miembros de sus equipos que optan a un variable por desempeño.

    Efectivamente, los humanos estamos muy sesgados por nuestra personalidad, experiencias vividas o presiones sociales. Ahora bien, no debemos pensar que la tecnología es completamente objetiva. Al fin y al cabo, el algoritmo está programado por un humano; trabaja sobre las reglas y la información de que dispone, que nunca es lo suficientemente completa como para tener en cuenta todas las alternativas posibles.

    Y como, lamentablemente, podemos comprobar cuando nos conectamos a una red social o a un sitio web, pueden estar programados con intenciones claras. No son inocentes ni neutrales.

    Ya se han reportado casos de decisiones tomadas por algoritmos que favorecían a determinados grupos sociales sobre otros; hace poco se publicaba el caso de uno que evaluaba peor el rendimiento en un ‘call center’ de empleados con acento (aunque nativos en el idioma) porque el sistema cometía más errores de comprensión de sus conversaciones.

    Aun en el caso de que contásemos con algoritmos que superasen en objetividad a los mánagers, hay un punto fundamental que inclina definitivamente la balanza hacia el humano: la empatía.

    Un algoritmo no considera que alguien tenga un familiar en un hospital y eso haga que su rendimiento baje durante unos días, o que el comportamiento de dos miembros del equipo se explique por un conflicto entre ellos.

    De todas formas, dado que la implantación de esta tecnología parece imparable, y que por otra parte los algoritmos incorporan elementos de análisis que pueden ser muy útiles, por el momento conviene ir a un maridaje humano-máquina en el que la persona se nutra de un análisis previo para tomar sus decisiones.

    Existe un punto fundamental que inclina definitivamente la balanza hacia el humano: la empatía
    Imagen referencial. Existe un punto fundamental que inclina definitivamente la balanza hacia el humano: la empatía. Foto: Pixabay
  • Los usuarios, y no los algoritmos, deciden qué contenidos ver en Facebook

    Agencia EFE

    Son los propios usuarios de la red social, y no los algoritmos, quienes tienen en última instancia el poder de censurar contenidos en Facebook y evitar exponerse a aquello que desafía sus pensamientos e ideas, según un estudio publicado este jueves (7 de mayo de 2015) por la revista Science.

    ¿Pueden las redes sociales como Facebook crear una especie de ‘burbujas’ en torno a sus usuarios para que estos vean únicamente el tipo de noticias y contenidos que quieren ver? Fue la pregunta que se hicieron los autores del estudio, tres investigadores de la Universidad de Michigan.

    Eytan Bakshy y sus colegas analizaron la actividad de más de 10 millones de usuarios de Facebook en EE.UU. que dan a conocer en su perfil su afiliación ideológica y preferencias políticas, así como siete millones de enlaces compartidos en un periodo de seis meses, de julio de 2014 a enero pasado.

    Los investigadores analizaron las noticias que esos usuarios comparten con sus amigos y luego determinaron cuáles llegaron a ellos a través de algoritmos creados por Facebook como el que la red social utiliza para decidir qué contenidos ganan prioridad en la lista de ‘Últimas noticias’ (News Feed).

    Tras ese análisis, llegaron a la conclusión de que la «elección individual» juega un mayor rol que ese algoritmo a la hora de limitar la exposición del usuario a contenidos que pueden desafiar su ideología.

    El algoritmo que usa Facebook para ordenar la información en la lista de ‘Últimas Noticias’ del usuario produce, en promedio, un cambio de un punto porcentual en la proporción de noticias potencialmente desafiantes, según el estudio. Sin embargo, cuando se considera la elección individual, ese cambio es de cuatro puntos porcentuales en esa proporción.

    El algoritmo automático de Facebook, utiliza un gran número de variables para dar preferencia a contenidos que considera que el usuario quiere ver, lo que ha levantado el temor de que los internautas se muevan en una «burbuja» ideológica que no se expone a otras opiniones.

    «Nuestro trabajo sugiere que el poder que tiene uno mismo de exponerse a perspectivas del otro lado (conservadoras para los progresistas y viceversa) en las redes sociales reside primero y ante todo en los individuos», sostienen los investigadores.

    No obstante, reconocen que su análisis tiene «limitaciones», dado que aunque la gran mayoría de usuarios de redes sociales en EE.UU. tiene una cuenta en Facebook, su estudio se centra únicamente en esa plataforma. 

    Se recomienda no abrir ningún video erótico que aparezca en su muro de Facebook. Foto: Pixabay
    Se recomienda no abrir ningún video erótico que aparezca en su muro de Facebook. Foto: Pixabay