lunedì 13 luglio 2015

El content curator



Según definición de Dolors Reig, especialista en social media, el content curator, también conocido como curador de contenidos o intermediario de conocimiento, “es un profesional, interno o externo, especialmente implicado con el conocimiento, y que asesorará sobre la información más relevante en el sector”.
Podríamos decir que un content curator, es un “intermediario crítico del conocimiento”; es alguien que busca, agrupa y comparte de forma continua lo más relevante en su ámbito de especialización.
Su objetivo fundamental es mantener la relevancia de la información que fluye libre o apoyada en herramientas concretas para la creación de entornos informacionales.
En última instancia, su valor competitivo es mantener a la última a la empresa u organización para la que trabaja en cuanto al conocimiento, que es vital para su supervivencia.
El content curator es el profesional que se dedica a hacer una selección personalizada y de calidad del mejor contenido y de los mejores recursos sobre temas específicos; es el profesional que propicia un servicio tremendamente valioso para quienes buscan información de calidad online, según Reig.





http://www.scoop.it/t/information-hunting





mercoledì 1 luglio 2015

El arte de preguntar – la web semántica




¿LLEGARÁN LOS COMPUTADORES A SER MÁS INTELIGENTES QUE EL HOMBRE?

A pesar de toda la capacidad de cómputo de la que hoy nos ufanamos, no importa cuántos ‘cores’, ni cuánta RAM, ni cuantos megahertz podamos juntar en un servidor: todavía no existe un computador, por grande y poderoso que sea, que iguale la capacidad de procesamiento cerebral de un ratón.


El ser humano es más inteligente que el computador, por una simple razón: puede pensar autónomamente e incrementar sus propios conocimientos teniendo en cuenta las experiencias pasadas. Procesa informaciones y fechas, pero es también capaz de integrar lo que le falta, formular hipótesis, también muy arriesgadas, que pero a veces son tiles para llegar al resultado por caminos hasta entonces desconocidos.
El computador no sabe y no puede hacer nada si no recibe las instrucciones correctas. Y para obtener el resultado deseado es necesario formular las preguntas en la forma más dirigida posible con palabras claves fácilmente comprensibles e “inteligibles” por los buscadores.

Así es mi pregunta en lenguaje natural:

La web semántica, ¿va a ser una realidad cuanto antes o seguirá en el estado de vaporware?

Palabras claves:

Campo temático: web semántica inteligencia artificial
Problema específico: “web semántica” “interpretado” “ser humano”
Referencias autorales: Tim Berners-Lee Lluis Codina



Intenté la búsqueda con Google Acádemico (http://scholar.google.com), función de "búsqueda avanzada";

En los campos:

con todas las palabras: web semantica
sin las palabras: web 2.0 web 3. 0
Mostrar artículos escritos por: Lluis Codina


y resultó que no salió ningún risultado.

...¿La razón?
El error, lo había cometido escribiendo en el campo “sin las palabras”: web 2.0 web 3.0.
Es decir que el buscador estaba excluyendo todos los documentos con la palabra WEB.
Corregí mi falta de atención, escribiendo en el campo “sin las palabras”: 2.0 3.0

Obtuve 4 páginas de resultados, es decir 31 documentos en PDF o HTML, muy pertinentes a lo que yo estaba buscando.

Por curiosidad, hice la misma búsqueda

web semantica 2.0 3.0 autor:Lluis autor:Codina

en el Google normal y salieron 770 resultados, de todo tipo, algunos de Google académico, muchos con poco valor.

Google Académico me parece una herramienta muy interesante e “inteligente”para la investigación, aunque se utilicen aquí también técnicas SEO de posicionamiento para aparecer en los primeros resultados.


Bueno, quisiera aclarar algunas definiciones que se refieren a mi búsqueda:

Vaporware es el nombre que reciben los proyectos informáticos que se anuncian reiteradamente pero que no alcanzan una condición de existencia real.

En ciencias de la computación se denomina inteligencia artificial a la capacidad de razonar de un agente no vivo. John McCarthy acuñó la expresión «inteligencia artificial» en 1956, y la definió así: “Es la ciencia e ingenio de hacer máquinas inteligentes, especialmente programas de cómputo inteligentes”.
La Web 2.0 se puede representar mediante los siguientes componentes principales:
i) Contenidos creados por los usuarios – prosumidores (el término prosumidor es un acrónimo formado por la contracción de las palabras “productor” y “consumidor”. Fue acuñado por Alvin Toffler en su obra La Tercera Ola - 1980).
ii) Redes sociales
iii) Aplicaciones en línea
iv) Herramientas de colaboración

La Web 3.0 es algo posterior a la Web 2.0 y que no es sinónimo de web semántica:
i) Computación en la nube y vinculación de datos y aplicaciones en una respuesta unificada
ii) Agentes de usuario (como en la Web Semántica): programa que sería capaz de actuar en nombre de un usuario humano, entender sus necesidades de información y de gestión y de solucionarlas sin intervención del usuario humano o con una mínima supervisión
iii) Anchura de banda
iv) Ubicuidad de la Web

Web Semántica:
i) La Web considerada como una gran base de datos.
ii) Metadatos y lógica formal.
iii) Ontologías
iv) Agente de usuario y sistemas informáticos capaces de efectuar inferencias o razonamientos.
El objetivo fundacional de la Web Semántica consistió en desarrollar una serie de tecnologías que permitieran a los ordenadores, a través del uso de agentes de usuarios parecidos a los navegadores actuales, no solo “entender” el contenido de las páginas web, sino además efectuar razonamientos sobre el mismo. La idea era conseguir que el enorme potencial de conocimiento encerrado en documentos como las páginas web pudiera ser interpretado por parte de los ordenadores de forma parecida a como lo haría un ser humano.


La finalidad de la web semántica es conseguir que las páginas que la forman dejen de ser simples cadenas de caracteres para los ordenadores y se conviertan en textos con sentido, es decir, con semántica tal como, de hecho, lo son para los seres humanos.

Es decir que si la web semántica fuese ya real, el motor de búsqueda elegido habría leído, interpretado y comprendido mi pregunta en lenguaje natural y me habría simplemente contestado (quizás con ironía y orgullo): “la web semántica ya existe!”



FUENTES

W3 Consortium. Semantic web: http://www.w3.org/2001/sw/








http://antoniogonzalezm.es/googlescholarogoogleacademicoC2%BFcomoaparecerelprimero/



giovedì 25 giugno 2015

Web Superficial y Web Profunda

Buscar información utilizando los buscadores tradicionales puede ser comparado con arrastrar una red en la superficie de un océano. No podrá obtener muchos peces de aguas profundas.



El concepto de Internet invisible o Internet profunda, conocida en inglés también como Deepweb, Darkweb o Hidden web, hace referencia, básicamente, a una serie de contenidos que no son visibles para los motores de búsqueda tradicional, esto es, que Google no puede encontrar.
Lo interesante de este concepto es que, tal como lo refiere Brian Wai Fung en su investigación para el MIT sobre algoritmos para web profunda, “de acuerdo con una investigación conducida por la Universidad de Berkeley en California, en 2003 la web (superficial) contenía aproximadamente 167 terabytes de información. En contraste, la Internet profunda se estima que contiene 91.000 terabytes de información, lo que corresponde a 500 veces más el tamaño de la web superficial. Esto significa que el tradicional sistema de búsqueda basado en enlaces no está rastreando el contenido del 99% de la web”.
Michael Bergman, es el más reconocido estudioso de la Web Profunda, quien en su artículo ‘Web Profunda: sacando a la luz un valor escondido’ (2001), acuñó el término haciendo referencia a la expresión ‘Internet invisible’ que había sido usada por Jill Ellsworth ya en 1994, momento en el cual se pronosticaba el boom del .com y el crecimiento exponencial de la web y la consecuencia ampliación del acceso a la información y el conocimiento.

Tal como dice Lluís Codina, Internet invisible es un nombre poco afortunado, ya que la información es perfectamente visible, sólo que no es indizable. Codina propone el nombre de web no indizable, aunque el término más usado en la literatura científica continúa siendo web invisible.

Según la accesibilidad, podemos diferenciar la Internet superficial (surface web), porción de Internet que es indexada por los buscadores, la Internet profunda (deep web), parte de Internet que no forma parte de la Internet superficial, y la Internet oscura (dark web), hosts de la red inaccesibles, a los que no se puede acceder a través de medios convencionales.

La Internet superficial (surface web) es la porción de Internet indexada en los motores de búsqueda, a través de sus arañas o spider. Estas arañas son programas que ejecutan la función de buscar, clasificar e indexar los contenidos web, almacenando la información en bases de datos. Cualquier enlace que encuentren los spider es seguido e indexado a su vez, por lo que eventualmente todas las páginas web enlazadas mediante hipervínculos serán en un momento u otro indexadas. Por diferentes motivos, como enlaces generados por JavaScript y Flash, sitios protegidos con clave o ficheros excluidos mediante robots.txt, una gran parte del contenido de la web no puede ser capturada por los buscadores, lo que impide a los buscadores indexarlas. Estas páginas forman la denomina Internet profunda, que se estima constituye el 95% de los contenidos web.

La Internet profunda o invisible (deep web, invisible web, hidden web) es la porción de Internet cuyos contenidos no pueden ser indexados por los motores de búsqueda, y se estima que representa en torno al 95% de los contenidos web, de tal manera que la Internet profunda es varios órdenes de magnitud más grande que la Internet superficial.
La Internet profunda está compuesta por aquellos sitios web a los que no pueden acceder los motores de búsqueda, por diversos motivos como:
  • Contenido privado protegido con contraseña.
  • Documentos en formatos no indexables.
  • Enlaces generados mediante JavaScript o Flash.
  • Contenidos que usan protocolos diferentes a HTTP o HTTPS.
  • Contenidos no enlazados.
  • Contenido que varía según el dispositivo que accede.
  • Contenido dinámico generado como respuesta a un formulario.
  • Restricciones de acceso a documentos mediante robots.txt o captchas.
  • Información a la que sólo se puede acceder consultando bases de datos.


Aunque su nombre resulte intimidante para algunos, la verdad es que la Internet invisible ya no está tan oculta como antes y gracias a los metabuscadores (buscadores de buscadores) es posible rastrear fuentes de bases de datos, que permiten acceder a la información alojada en la web profunda, como estos que reseña Luis Castro en ‘¿Qué es Deep web?’:
Scirus (http://www.scirus.com/), usado para búsquedas de información científica.
Infomine (http://infomine.ucr.edu/), búsquedas de material escolar de todo tipo.
FreeLunch (http://www.economy.com/freelunch/default.asp), búsquedas de datos
económicos.
CompletePlanet (http://aip.completeplanet.com/), búsquedas de diversos temas.
Archive (http://archive.org/index.php), metabuscador para rastrear temas específicos.
Search Engine Guide (http://www.searchengineguide.com/searchengines.html),
metabuscador que permite encontrar un buscador o base de datos relacionada con el tema de interés.

Es justo señalar que gran parte de los recursos auditados de la web profunda provienen de bibliotecas y centros de investigación universitarios y que por lo tanto la información es de gran calidad y valor para la comunidad científica y de investigación.

La Internet oscura (dark web) es una parte de la Internet profunda formada por hosts inaccesibles, a los que no se puede acceder a través de medios convencionales, y generalmente se utiliza en entornos en los que es esencial proteger la identidad de los usuarios y el contenido de las comunicaciones.

La Internet oscura se caracteriza por el tipo de contenidos que la integran, usualmente relacionados con:
  • Actividades delictivas, terroristas, pederastas o violación de derechos de autor.
  • Información secreta relativa a actividades gubernamentales, militares o de espionaje.
  • Comunicación de información confidencial de índole comercial.
  • Lugares donde, debido a conflictos políticos, existen restricciones o censura en la difusión y acceso a ciertos tipos de contenido.

La Internet oscura se desarrolla a través de redes superpuestas sobre Internet, cuyos principales objetivos son preservar el anonimato del usuario, mantener la integridad del mensaje y garantizar el secreto de la información. Ejemplos de estas redes son GNUnet, Freenet y Tor (The Onion Router).


Fuentes:

















giovedì 18 giugno 2015

Búsqueda Avanzada (Advanced Search)

Búsqueda Avanzada (Advanced Search)


ofrece varias alternativas para la optimización de nuestras búsquedas:
Ordenar los resultados
Uso de operadores booleanos (and, or, not)
Uso de frase completa como término de búsqueda
Permite limitar por fechas de publicación
Idioma
Región
Última actualización
Sitio o dominio
Los términos que aparecen (lugar de la página en el que aparecen los términos de búsqueda)
SafeSearch
Nivel de lectura
Tipo de archivo
Derechos de uso (busca páginas que puedas utilizar libremente)


OPERADORES
Los operadores permiten enfocar la búsqueda vinculando términos de búsqueda y definiendo la relación entre ellos.

Tipos de operadores:

  • Operadores booleanos
  • Operadores de posición
  • Operadores relacionales


Operadores booleanos
Por lógica Booléana se entiende ciertas operaciones lógicas que son utilizadas en las bases de datos para los procesos de búsquedas. En estos procesos se utilizan también relaciones entre descriptores
Los siguientes son operadores lógicos boléanos:


AND/Y: Relaciona términos que corresponden a conceptos distintos pero que queremos aparezcan en el mismo documento. Es un operador de reducción.
OR/O: Encuentra documentos que tengan al menos uno de los términos especificados. Es un operador de ampliación.
NOT/NO: Excluye los documentos que contengan el término no deseado. Es un operador de reducción.



También se utilizan signos como “+” o “-“, denominados 
operadores boléanos implícitos. El signo “+” tiene el sentido 
del “AND” y el signo “-“ excluye el concepto que tenga dicho
 signo delante. Cuando no se sitúan los signos “+” o el “-“ se
 considera por el motor de búsqueda que estamos ante un 
“OR”. Estos signos: “+” y “-“, se utilizan en búsquedas poco
 complejas
Para precisar la búsqueda podemos utilizar las comillas "" 
entre las palabras o conceptos empleados en la búsqueda. 
Esto indica que queremos aquellos sitios y páginas que 
concuerden exactamente con lo que hemos escrito. Las 
comillas (“”) indican que deben respetarse el orden de las 
palabras y el empleo de las mayúsculas y minúsculas.



Operadores de posición
Los operadores de posición (SAME, WITH, NEAR, ADJ) 
localizan registros en los que los términos están en 
proximidad dentro de mismo registro bibliográfico. Los 
operadores posicionales se pueden utilizar para conectar 
palabras o frases dentro de un campo de búsqueda pero no 
entre campos de búsqueda.


Operadores relacionales
Los operadores relacionales (<, >, =, <>, <=, >=) permiten 
buscar expresiones numéricas. Utilizar los operadores 
relacionales encerrando un campo entre llaves {}, y 
tecleando un operador relacional y un número.






giovedì 11 giugno 2015

Las herramientas de búsqueda de informacion en Internet

mi padlet
Las herramientas de búsqueda de informacion en Internet mas populares son:
  • Los motores de búsqueda horizontales
  • Los motores de búsqueda verticales/singulares
  • Los directorios de preguntas y marcadores sociales
  • Y los metabuscadores

Entre estos destacan:

Bing –
www.bing.comGoogle – www.google.com
Yahoo – es.yahoo.com
Alta Vista – www.altavista.com
Ask – www.ask.com
Excite – www.excite.com
Lycos – www.lycos.com
Wikipedia – es.wikipedia.com


Los motores de búsqueda horizontales tienen su máxima expresión en Google.com. Estos se caracterizan por indexar la web en busca de contenidos que clasifican y posicionan en sus “Rankings” en función de una serie de parámetros contenidos en su algoritmo.


Los motores de búsqueda verticales/singulares son menos conocidas dadas sus
peculiaridades.

  • Wolfram alpha – www.wolframalpha.com es un buscador semántico para materias de ciencias
  • Zanran – http://zanran.com/q/ es un buscador de datos estadísticos
  • Quandl – www.quandl.com es un buscador de dataset de datos económicos
  • Factbites – www.factbites.com es un buscador para responder preguntas
  • Nationmaster – www.nationmaster.com un buscador para comprar datos entre países

Cada una de estos motores de búsqueda esta especializado en una tarea específica y están diseñados para brindar información desde otro enfoque.


Los directorios de preguntas y marcadores sociales son un gran recurso para
obtener respuestas a preguntas complejas de todo tipo y perfectas para encontrar fuentes de información especializadas, aplicaciones y recursos.

  • Quora – www.quora.com es una red social de preguntas indexadas por un motor de búsqueda.
  • Yahoo Answers – https://es.answers.yahoo.com es el directorio de preguntas puesto en marcha por yahoo
  • Reddit – www.reddit.com se trata de un marcador social donde se agregan y agrupan contenidos sobre un mismo tema
  • Delicious – delicious.com también es un marcador social muy popular donde se agregan páginas de valor o buen contenido
  • Digg – digg.com es un servicio donde reflejan los contenidos más compartidos y visitados cada día


Los metabuscadores permiten realizar búsquedas de información en varios motores de búsqueda al mismo tiempo.

  • Copernic – www.copernic.com uno de los más antiguos y tal vez el metabuscador más conocido.
  • Metacrawler – www.metacrawler.co.uk es un metabuscador muy sencillo y fácil de usar
  • OJOSE – www.ojose.com es un metabuscador especializado en recursos científicos y de la web profunda
  • Ixquick – www.ixquick.com
  • Dogpile – www.dogpile.com uno de los clásicos
  • Yippy – yippy.com
  • DeeperWeb – deeperweb.com Otro metabuscador para la web profunda


Directorios y Motores de búsqueda académicos o de investigación

  • Open Directory Project – www.dmoz.org Uno de los mejores directorios de información que existen
  • Infomine – infomine.ucr.edu/Main.html Mas de 15.000 enlaces a recursos de investigación universitaria
  • MEDLINEplus – www.medlineplus.gov otro buscador sobre asuntos de salud
  • Scirus – www.scirus.com buscador exclusivo sobre temas científicos
  • Google scholar scholar.google.es el buscador de publicaciones científicas de Google
  • Deepdyve www.deepdyve.com es un buscador de artículos científicos


Directorios de patentes

  • Espacenet – es el buscador de la oficina de patentes europea
  • WIPO – la organización mundial de la propiedad industrial.
  • Google Patent – es el buscador de Google especializado en patentes



giovedì 4 giugno 2015

ESTAR BIEN INFORMADO - Captar y procesar bien la información

"Los analfabetos del siglo XXI no serán aquellos que no sepan leer y escribir, sino aquellos que no sepan aprender, desaprender y reaprender." Esta idea, sin embargo, es de Herbert Gerjuoy, citada por Toffler en El shock del futuro.

Un analfabeto será aquel que no sepa dónde ir a buscar la información que requiere en un momento dado para resolver una problemática concreta. La persona formada no lo será a base de conocimientos inamovibles que posea en su mente, sino en función de sus capacidades para conocer lo que precise en cada momento».Alvin Toffler (La tercera ola)


La información es un recurso relevante en el desarrollo científico y técnico de la sociedad moderna, es el vehículo que transmite el conocimiento, por lo tanto es un elemento esencial para el bienestar y el progreso. La información es necesaria para la toma de decisiones, el acceso y uso de ella ha dividido a los ciudadanos en pobres y ricos en información, unos que no tienen acceso a ella, y otros que tienen a acceso a la información para las toma de decisiones acertadas y satisfactorias.
Debido a este crecimiento "explosivo" que ha tenido la información en las últimas décadas las organizaciones necesitan de una gestión adecuada para mantener sus procesos productivos y comerciales.
Para V. Cano (1999) el concepto de "gestión de información" ha sido facilitada por dos factores :
el incremento del uso de tecnologías que faciliten el almacenamiento y procesamiento de grandes cantidades de datos en el nivel de alfabetización informativa de la fuerza laboral.
Sin información no es posible la evaluación y el cambio, ella vincula todo el ejercicio de la inteligencia, la actividad y la inventiva.

El mundo que nos rodea
Hoy en dia tenemos toda la información al alcance de un click.
¿De dónde provienen todos estos datos? Los fabricamos directa e indirectamente segundo tras segundo. Un iPhone hoy en día tiene más capacidad de computación que la NASA cuando el hombre llegó a la luna17 por lo que la cantidad de datos generados por persona y unidad de tiempo es inmensa.
Todos queremos estar bien informados, y esta ansiedad informativa nos impulsa a querer digerir toda la información que nos ofrecen y que parece necesaria. Pero esta ingestión obsesiva provoca frustración cuando se comprueba que no alcanzamos a asimilar todo lo que quisiéramos, porque hay mucha más información disponible que aquella que podemos asimilar.
Este exceso de información se ha utilizado en ocasiones como mecanismo de censura porque tiende a ocultar la información que resulta incómoda. En democracia, la censura funciona por asfixia: ofrecen tanta información que se pierde la noción de lo necesario e importante. Es una forma moderna y encubierta de censura que no consiste en suprimir información, sino en sobreinformar, para disimular, para esconder. Al contrario de lo que se piensa, más información puede significar menos libertad.
Tan difícil es vivir faltos de información como vivir desbordados por la sobreabundancia informativa.
La falta de previsión de la actual crisis financiera es un ejemplo de cómo la acumulación de información puede volverse en contra. La crisis se produjo cuando el mundo disponía de más información que nunca, pero precisamente el exceso de información es lo que no le permitía ver las señales de alerta. Lo afirmó James Powell, director de tecnología de Thomson Reuters, en una reunión cumbre sobre internet que se celebró en San Francisco en noviembre de 2008. Y ahora los bancos siguen ignorando el peligro de no escudriñar bien los datos, según sostiene un informe que publicó The Economist el pasado 25 de febrero.
El empacho informativo es un verdadero problema. La información pierde cualidades, no puede cumplir sus objetivos, se vuelve más nociva que provechosa. Genera angustia porque hay tanta información que ya no se la puede asimilar, y de esta manera el exceso de información incapacita para tomar decisiones sensatas, y entonces provoca un aumento del estrés. Esta situación que resulta de contar con demasiada información para tomar la decisión correcta, o para estar bien informados sobre un tema, es lo que se denomina sobrecarga informativa. El concepto fue acuñado por Alvin Toffler en 1970, pero la sociedad choca con este fenómeno desde mucho antes. Ya en 1550, el teólogo Juan Calvino se quejaba de que había tantos libros que ni siquiera tenía tiempos de leer los títulos. Desde entonces, la producción científica experimentaría un crecimiento imparable y exponencial: el número de revistas académicas que se publican desde el siglo XVII se ha ido duplicando cada quince años. Y tal ha sido la explosión de la actividad bibliográfica que ya en 1830 ningún científico podía pretender estar al día de todo lo que se publicaba sobre su campo de interés. El aumento de información también ha comportado un incremento de los canales de transmisión: el progreso nos ha traído los medios de comunicación de masas y la red de internet. Estas dos fuentes han resuelto la antigua traba del acceso a la información de forma global, pero han generado
obstáculos nuevos. El progreso tecnológico ha hecho que sea tan fácil el producir, distribuir y obtener información que ha eliminado filtros, y ha reducido la “selección natural” que tiempo atrás rechazaba publicar lo que no fuera lo bastante significativo. Como resultado, hoy abundan los contenidos irrelevantes, confusos e imprecisos, una niebla tóxica que hace difícil ver con claridad.

La tercera parte de la población mundial ya es 'internauta'. La revolución digital crece veloz. Uno de
sus grandes pensadores, Nicholas Carr, da claves de su existencia en el libro 'Superficiales. ¿Qué
está haciendo Internet con nuestras mentes?' El experto advierte de que se "está erosionando la
capacidad de controlar nuestros pensamientos y de pensar de forma autónoma".

El concepto de infoxicación como tal fue acuñado por primera vez por Alfons Cornella, Fundador y presidente de Infonomía en el año 2000 o finales de 1999. Sin duda fue un acierto por parte de Alfons que fue el primero en definir y darse cuenta de qué es la infoxicación, para aludir a la sobresaturación de información, como acrónimo de intoxicación por información. Es la sensación de angustia que nos produce la imposibilidad de manejar el exceso de información que recibimos a diario. Ello incide de forma directa en nuestra productividad.

¿Qué es la infoxicación? ¿Es lo mismo la infoxicación y el "overload information"?
La infoxicación es el exceso de información. Es, pues, lo mismo que el information overload. Es estar siempre "on", recibir centenares de informaciones cada día, a las que no puedes dedicar tiempo. Es no poder profundizar en nada, y saltar de una cosa a la otra. Es el "working interruptus". Es el resultado de un mundo en donde se prima la exhaustividad ("todo sobre") frente a la relevancia ("lo más importante").

Causas
Recogemos más información de la necesaria;
Recibimos una gran cantidad de información.

para apoyar la competencia y nuestras razones a la hora de tomar decisiones;
por si pudiese ser útil en un futuro;
para no quedarnos atrás respecto a los que nos rodean.

Consecuencias
El síndrome se acompaña de manifestaciones tales como
dolor de estómago, pérdida de visión,
problemas de atención y concentración,
dificultad para el análisis y la toma de decisiones,
búsqueda constante de más información,
ansiedad, estrés y trastornos del sueño.

La ansiedad es algo que se ha denominado técnicamente como IFS “information fatigue síndrome”. Este término ya fue acuñado en 1996 por el psicólogo británico David Lewis.

Soluciones
Según Alfons Cornellá, “El problema y su solución comparten el mismo origen:
la red. Internet nos satura de información pero al mismo tiempo nos proporciona las herramientas para no morir “infoxicados”.

Aprender a utilizar los buscadores,
realizar búsquedas avanzadas,
priorizar aquel contenido crítico que nos ayudará a conseguir nuestros objetivos inmediatos y relegar aquel que nos puede ser útil más tarde,
utilizar herramientas y aplicaciones que agilicen nuestra consulta de información, al permitirnos seguir de forma centralizada los contenidos de varias páginas web sin tener que entrar en cada una de ellas (Feedly, Flipboard, Google Currents…), utilizar las listas de Twitter y Facebook para agrupar determinados perfiles.

Para evitar infoxicarse es primordial valorar más que nunca la calidad de los contenidos. Y que los usuarios formen sus propios criterios, para recibir sólo la información que nos interese, de calidad, y saber dónde encontrarla.

La infoxicación es un problema que se resuelve individualmente con organización y priorizando contenidos.

La gente busca información que confirma su visión del mundo e ignora la que no encaja.
El sesgo de confirmación o sesgo confirmatorio es la tendencia a favorecer la información que confirma las propias creencias o hipótesis. El término sesgo de confirmación fue acuñado por el psicólogo inglés Peter Wason. La gente muestra esta tendencia cuando reúne o recuerda información de manera selectiva, o cuando la interpreta sesgadamente. El efecto es más fuerte en publicaciones con contenido emocional y en creencias firmemente enraizadas. Por ejemplo, al leer acerca de políticas sobre armas, la gente por lo general prefiere las fuentes que afirman sus posturas ya existentes. También tienden a interpretar que las pruebas ambiguas apoyan su postura existente. Se ha invocado la búsqueda sesgada, la interpretación y la memoria para explicar la polarización de las actitudes (cuando un desacuerdo se hace más extremo o polarizado a pesar de que las diferentes partes están expuestas a las mismas pruebas), la perseverancia de creencias (cuando las creencias de las personas persisten pese a que se ha demostrado su falsedad), el efecto de primacía irracional (cuando se tiene mayor confianza a las primeras experiencias tenidas con algún hecho, que a las más recientes) y la correlación ilusoria (cuando la gente falsamente percibe una asociación entre dos acontecimientos o situaciones).
La manera de luchar contra el sesgo de confirmación es simple de enunciar pero difícil de poner en práctica. Hay que tratar de pensar y probar hipótesis alternativas. Suena fácil, pero no está en nuestra naturaleza. No es divertido pensar que podríamos estar equivocados o hemos sido mal informados. Se necesita un poco de esfuerzo.

El Big Data o Datos Masivos se refiere a sistemas informáticos basados en la acumulación a gran escala de datos y de los procedimientos usados para identificar patrones recurrentes
dentro de esos datos.
La tendencia a manipular ingentes cantidades de datos se debe a la necesidad en muchos casos de incluir los datos relacionados del análisis en un gran conjunto de datos, como los análisis de negocio, publicitarios, los datos de enfermedades infecciosas, el espionaje y seguimiento a la población o la lucha contra el crimen organizado.



FUENTES:

Alfons Cornellá en “cómo sobrevivir a la infoxicación”

Cornellá, Alfons“Cómo sobrevivir a la infoxicación”


Infoxicación: buscando un orden en la información