newser1

Ayer por la noche leía una genial entrevista a Michael Wolff, director de Newser.com, que le hizo Pablo Mancini en su blog Amphibia y una vez más comenzó a dar vueltas en mi cabeza la posibilidad de que el algoritmo de un robot pueda reemplazar el criterio de un periodista.

¡Muy bien!, pensé, ahora nuevamente tenemos una nueva idea apocalíptica para asustarnos y hacer miles de conferencias (los bárbaros al ataque). Primero fue que los medios en Internet eran el Némesis de los periódicos de papel, después fue que los blogueros dejarían sin trabajo a los periodistas,  y lo que faltaba, ahora existe la posibilidad de que un  algoritmos pueda reemplazar lo único que nos quedaba a los periodistas:  nuestro criterio de jeraquización.

Creo que con estas tres primitivas ideas (creadas por profesionales amenazados) podemos comenzar a construir un triángulo que es la base de la búsqueda y jerarquización de las noticias en la red:  la información de los usuarios, la seleccionada por un robot y la entregada bajo el criterio de los periodistas.

La idea de distintas formas de jeraquización de información aparece desde hace muchos años en Youtube, con su distribucion entre “lo más visto”, “lo más popular” y “lo último”. Asimismo, esta idea fue muy bien traducida periodísticamente en la home de Soitu.es bajo los criterios de: “solo actualidad” (a criterio de sus periodistas), “lo último” y “lo más visto”. Ahora a este tipo de criterios le podemos agregar los creados por algoritmos de búsqueda de noticias, como los de Google News.  Con todo estos criterios ya podemos crear un  medio híbrido como Newser.com.

“Tenemos una tecnología que lee miles de fuentes de información, las filtra y arroja resultados a nuestros editores basándose en criterios presentados. Luego los editores y redactores hacen una selección final”, dice Wolff.

Ante la pregunta que lanza Pablo Manccini en otro de sus post ¿Si los algoritmos podrán reemplazar a los periodistas? creo que la respuesta contundente (además de las que da Pablo) es que este tipo de robots, pueden ayudar a que los periodistas a tener más tiempo para crear contenidos, dado que la búsqueda de información en la red será realizada a un algoritmo. (cuyos patrones también son creados por humanos)

“Demasiada gente se dedica a labores que podrían mecanizarse y no a aquellas en las que los periodistas o creadores de contenidos aportan valor”,  indican los principios del blog 233grados.com, quienes están dedicados a un proyecto periodístico que busca crear una página web de noticias que sea un hibrido que combine los criterios de un periodista con el algoritmo de un robot

Una vez tuve la oportunidad de asistir a un taller con Miguel Angel Bastenier (subdirector de relaciones internacionales del diario El País), quien se preguntaba a si mismo “¿El periodismo morirá a causa de Internet?” y el se respondía: “!De ninguna manera¡”. Indicaba que lo que se necesita ahora, más que nunca, son mayor cantidad de periodistas que sean capaces de crear noticias de “agenda propia”. Que los medios busquen y produzcan nuevas noticias y no solo reboten la información de otros medios.

Agregando, a lo que dijo Bastenier, podría decir que finalmente de la búsqueda y publicación de una noticias ya divulgada por otro medio, se puede encargar un algoritmo.

O como dice Varela en su post, el medio es el algoritmo. “El desafío del periodismo es reinventarse para mantener los viejos criterios de calidad y sumar los nuevos y las oportunidades de la tecnología y la acción de los ciberciudadanos”

Un apunte más: La distribución de la información de Newser.com me hizo recordar mucho al visor de noticias basado en Google News, Newsmap de Marumushi.