Gracias a redes sociales como Twitter podemos enterarnos, prácticamente en directo, de gran parte de las noticias que suceden en el mundo y, si no es en directo, al menos es con mayor rapidez que algunos medios tradicionales. De todas formas, no todo lo que circula por Twitter es rigurosamente cierto o puede tomarse como una noticia contrastada y, aunque es utilizado como fuente por bloggers y periodistas, es necesario comprobar la información antes de darla por cierta. Pensando en optimizar esfuerzos y ofrecer a los periodistas acceso a noticias, en tiempo real y con una medida de su fiabilidad, Microsoft y la Universidad Rutgers se han unido en proyecto de investigación para desarrollar una herramienta llamada Seriously Rapid Source Review que permitirá el análisis de la información que fluye por Twitter y detectará las noticias de última hora.
Seriously Rapid Source Review es una herramienta que, aunque aún está en desarrollo, es capaz de procesar la información que circula a través de Twitter y distinguir las noticias de última hora que se difunden a través de perfiles de referencia (agencias de noticias, líderes de opinión, etc) y los contenidos multimedia (vídeos e imágenes) que se adjuntan a los tweets, ahorrando al usuario la escucha de cientos de perfiles, la vigilancia de los trending topics y la búsqueda en blogs o en otros medios en busca de fuentes de información.
Uno de los detalles más interesantes de Seriously Rapid Source Review, o SRSR, es la capacidad de evaluación de la fiabilidad de una fuente, algo que se calcula mediante un análisis del perfil en Twitter de dicha fuente y en la que se tienen en cuenta los perfiles que la siguen, los perfiles que sigue y su ubicación (para así evaluar la red de contactos de dicho perfil y sus conexiones).
La idea es bastante interesante y, bajo mi punto de vista, podría convertirse en un potente aliado de los profesionales del mundo de la información; sin embargo, aún está en una fase extremadamente temprana y no trabaja, aún, a tiempo real (no usa el API de Twitter) sino que está procesando datos previamente almacenados para, una vez superada esta fase de ajuste y prueba de los algoritmos de búsqueda y detección, poder pasar a una detección en condiciones normales, es decir, el análisis a tiempo real de la información que fluye por Twitter pero antes deben solventar las limitaciones que han encontado en el API que Twitter ofrece a los desarrolladores.
Cada vez va a ser más habitual el lanzamiento de herramientas que procesen toda la información desestructurada que fluye por Twitter, la procesen y presenten cuadros de mando con indicadores o informes estructurados que permitan a las empresas y los profesionales detectar oportunidades o realizar predicciones o estudios de mercado (o premios como los Oscars), una información que, seguramente, sea una interesante línea de negocio para muchas compañías.
Fuente:bitelia
0 comentarios:
Publicar un comentario