Un algoritmo que predice qué sintechos reciben las ayudas

Aunque la crisis ha causado muchos problemas, uno de los más graves es, sin lugar a dudas, que las personas han perdido sus hogares. Esto no es un problema que nos afecte solo en España, para nada, sino que es algo que, desgraciadamente, ocurre en todo el mundo. El caso que nos ocupa hoy es el del condado de Santa Clara, donde el gobierno local tiene un gran problema por el excesivo número de sintecho y la falta de recursos para darles un alojamiento a todos ellos. Sin embargo, un algoritmo desarrollado en Silicon Valley parece tener la solución, ya que se encargará de seleccionar a las personas que recibirán las ayudas.

Antes de contar en qué consiste el algoritmo, cabe contextualizar cuál es la situación. En Santa Clara, donde se encuentra Silicon Valley, hay unos 1.780.000 habitantes, de los cuales 6.500 son sintecho -según los últimos datos censales- . El problema es que Santa Clara cuenta con unos recursos algo limitados. Del 47% de su presupuesto para proyectos de alivio y vivienda, solo se pueden beneficiar un 5% de la población, lo que hace que nos preguntemos qué personas recibirán la ayuda.

La cantidad de personas en sí puede parece baja, pero en términos porcentuales, es bastante mayor que la cantidad de sintecho que hay en España. Para hacernos una idea, la cantidad de sintecho en España es de un 0,08%, mientras que en Santa Clara es de un 0.36%, es decir, 4,5 veces mayor, por lo que solucionar dicho problema es más difícil en Santa Clara que en España, aunque sean menos personas. Que la solución llegue pronto lo que buscan desde Silicon Valley.

Silicon Valley Triage Tool selecciona a los sintecho más necesitados

El problema de la falta de alojamiento es una de las principales consecuencias de la crisisEl problema de la falta de alojamiento es una de las principales consecuencias de la crisis

Decir que hay sintecho más necesitados que otros puede ser un poco cruel, pero sí es cierto que hay algunas personas que tienen un factor de riesgo más alto que otras. Ese es el principal problema que tienen en Santa Clara: cada persona tiene sus propias circunstancias, y eso requiere de unas medidas que se adapten a ella. Eso genera unos sobrecostes que el condado de Santa Clara no puede asumir. 

Como leemos en Mercury News, el algoritmo desarrollado en Silicon Valley analiza millones y millones de puntos de datos, y basándose en 38 variables distintas, selecciona al 5% de la población sin hogar que recibirá las ayudas -que serán las que necesiten más recursos-. ¿Y cómo lo hace? Aunque no es sencillo de explicar, se puede resumir. Básicamente analiza a las personas en función de su situación y las evalúa, eligiendo a las personas que más lo necesiten. De acuerdo al informe publicado sobre Silicon Valley Triage Tool, las principales características a tener en cuenta son:

  1. La tenencia de condiciones médicas crónicas
  2. Asistencia al servicio de emergencia este año.
  3. 11 o más asistencias a los servicios de salud este año.
  4. Esquizofrencia diagnosticada en los últimos dos años.
  5. Dos o más hospitalizaciones por salud mental.
  6. Abuso de drogas o cargos por drogas.
  7. Arrestados en los últimos dos años.

La persona que más características de este lista cumpla, tendrá más posibilidades de recibir la ayuda -aunque hay más variables-. Si el algoritmo funciona como está previsto que lo haga, será capaz de realojar a 1.000 personas sin hogar de larga duración y le ahorraría al condado de Santa Clara unos 19 millones de dólares anuales, que podrían ser invertidos en ayudar a los que no han podido ser ayudados en la primera ronda.

Cómo funciona el algoritmo

Cada agencia proporciona una información distinta sobre cada personaCada agencia proporciona una información distinta sobre cada persona / Captura de pantalla del informe

Las personas que no tienen dirección se hacen invisibles de cara a los organismos públicos, pero no del todo. Su vida queda registrada en algunos fragmentos de registros públicos que no están conectados entre sí. El algoritmo coge todos esos fragmentos y los une, creando una estimación de costes públicos futuros. La herramienta produce la probabilidad (entre 0,01 y 0,99) de que la persona analizada siga teniendo altos costes públicos -si tienes enfermedades crónicas o alguna enfermedad peligrosa, seguramente tu coste sea mayor que alguien que no tenga nada-. A mayor probabilidad, más fácil será que esa persona pueda acceder a las ayudas.

De esa forma, el algoritmo permite a las agencias públicas y a las casas de acogida dar una mayor prioridad de alojamiento y ayuda a las personas que más lo necesitan y que más accederán a los servicios públicos. Por ejemplo, si una persona va al hospital por una enfermedad peligrosa, se cura y después es echada a la calle, donde no tiene cuidados, la crisis se volverá a repetir. Esa repetición tiene unos costes muy altos pero si se prevé, ofreciéndole un alojamiento y cuidados, los costes se reducirán.

Otros algoritmos que no funcionaron tan bien

Las matemáticas no suelen fallar, pero cuando lo hacen suelen pasar cosas malasLas matemáticas no suelen fallar, pero cuando lo hacen suelen pasar cosas malas

Aunque el algoritmo busca darle más ayuda a los que más la necesitan, no siempre ha sido así, y de hecho, se ha dado algún caso en que las predicciones no han sido del todo justas. Lamentablemente, parece que las personas de raza negra han tendido a llevarse la peor parte, aunque no fuese algo hecho a drede.

El algoritmo de las sentencias racistas

Sin ir más lejos, en mayo de este mismo año, los juzgados de Estados Unidos decidieron usar algoritmos para ver qué sentencias merecía cada persona. Era como la película Minority Report, solo que sin magia ni ciencia ficción. El principal problema fue que, una vez se investigaron las sentencias, se descubrió que las personas de raza negra recibían condenas más altas ante el mismo crimen cometido por una persona de raza blanca.

En esta tabla vemos cómo las personas blancas tienen sentencias más cortas que las de raza negraEn esta tabla vemos cómo las personas blancas tienen sentencias más cortas que las de raza negra / Captura de pantalla de la web de ProPublica

El principal problema, y el error que hubo fueron, sobre todo, dos preguntas: "¿Alguna vez han estado tus padres en prisión?" y "¿Cuántos de tus amigos toman drogas ilegales?". Aunque esas dos preguntas pueden ser indicias de posible criminalidad, apuntaban indirectamente a personas que vivían bajo el umbral de la pobreza, que de acuerdo a los últimos datos en Estados Unidos, son personas de color.

Cuando Google Photos confundió a dos chicos con gorilas

Hace un año más o menos, Google lanzó Google Photos, una herramienta para hacer una copia de seguridad de nuestras fotos y compartirlas con nuestros amigos. Poco después, empezaron a actualizarla con más y más funciones, y una de ellas fue el reconocimiento de actividades o sitios. Por ejemplo, si son fotos de la playa, el algoritmo lo identificaba y las agrupaba por temática. Todo parecía muy bonito, hasta que ocurrió el desastre.

Dos personas de raza negra se hicieron unas cuantas fotos y las subieron a Google Photos, y el algoritmo, en vez de identificarlas como selfies, las identificó como gorilas, y agrupó sus fotos en la categoría "Gorilas". Aunque en Internet hubo muchas bromas con dicho tema, las chicas se sintieron ofendidas, y la propia Google tuvo que rectificar diciendo que había sido un error y que no había ninguna suerte de racismo en lo sucedido.

Matthew Woitunski editada con licencia CC BY-SA 2.5

Relacionados

Nos encanta escucharte ¿Nos dejas tu opinión?