miércoles, 18 de mayo de 2011

eXtensive Markup Language

¿Qué es el XML? A grandes rasgos es un lenguaje de etiquetas, como el html, con la genialidad de ser capaz de complementarse con cualquier lenguaje, a cualquier nivel y bajo cualquier plataforma. 
Esto quiere decir que independientemente del sistema operativo que usemos, funcionará. Da igual qué tecnología usemos, XML lo entenderá y cualquier intérprete lo reproducirá sin mayor problema.

Aparte de su gran utilidad, hay que mencionar su maleabilidad y personalización. Pues a a pesar de parecer HTML con esteroides (al fin y al cabo se trata de un derivado del SGML, padre del HTML), tiene la posibilidad de que cada persona cree su propio lenguaje de etiquetas. Esto puede convertirse en un problema a la hora de trabajar en equipo, o de exportar/importar documentos. Para paliar esto tenemos dos estándares, las DTD's y los XML Schemas, que concretan sus posibles declaraciones.

En nuestra Ciencia de la Información, y concretamente en el tratamiento de datos, es algo a tener en cuenta. Ya que existen muchos sistemas distintos que tienen que comunicarse entre sí. Dentro de cualquier empresa, incluso una biblioteca o archivo, tiene varios departamentos que al realizar actividades distintas, generan distinta documentación, datos financieros, texto sobre clientes o socios, nóminas, etc. Pero esa información hay que enviarla entre departamentos, cruzarla y gestionarla.  Y para ello, el XML los une a todos y consigue que se entiendan. 


Además sigue siendo en el fondo texto plano, y sólo el texto es indizable por una base de datos para su posterior recuperación. Me explico, por ejemplo Google usa unos bots que recorren la red, indizando las páginas para luego poder recuperarlas, si éstas no tienen texto plano, los bots no las pueden leer.


Aparte de esto, XML nos facilita a nosotros el poder catalogar o archivar documentos digitales, así como páginas web. HTML no entendía de estructuras, pero con XML y la creación del EAD esto ya no es problema.



martes, 3 de mayo de 2011

El Coleccionista

¿Y si pudiéramos saberlo todo? El pasado, el presente, e ir guardando el futuro, palabra a palabra. ¿Sería útil? Seguro, pero, ¿sería bueno?


Quizás nunca podamos saberlo todo de verdad, pero sí es posible tener el saber prácticamente tan a mano como en nuestra propia cabeza. Imaginad una metamente, una mente colmena, cientos de miles de mentes, que por separado apenas podrían con unos cuantos procesos simultáneos, conectadas unas con otras y otras con otras y éstas con las primeras cual red Geth, creando un ente virtualmente omnisapiente. Un ente en constante actualización, con ojos y oídos por todos los rincones del mundo, cargando información infinita y añadiéndola a sus bases de datos. Un ente que si supiera la diferencia entre inteligencia y sabiduría acabaríamos como en The Matrix o en una especie de 1984 steampunk cibergótico. Un ente al que pudiéramos acceder desde cualquier sitio, conectarnos y "Saber". Ahora, la realidad, la mente colmena es internet, los dispositivos para acceder a ella son los smartphones, blackberry's, iPad's, netbooks, etc. Y los ojos y oídos repartidos por el mundo para su constante actualización no es otra cosa que el fenómeno de la Web 2.0.


Ahora que se puede, ¿cómo se catalogaría toda la información? ¿habría que digitalizar lo antiguo? ¿quién y cómo haría todo eso? Son muchas preguntas, y la respuesta la tenemos nosotros, los documentalistas (o así debería de ser).
Usando la imaginación, trataré de responder a mi modo a éstas cuestiones. 


Yo crearía una ISO nueva, de aplicación inmediata, que regule la forma en la que se sube cualquier información a la web, de forma que no entorpezca en nada la facilidad con la que se sube cualquier cosa. Cada vez que se crea un tumblr, un blog, etc; cada vez que se actualizan, un mecanismo automático capta el cambio, cataloga la información rápidamente y la añade a un registro o BDD, con sus correspondientes palabras clave (que no serían otras que las que ya imponen éstos servicios), para su recuperación posterior. De ésta manera nos quitaríamos el problema de catalogar el futuro.


Para catalogar el pasado, abría que ir poco a poco, como en un archivo histórico en el que se descubre una nueva sala, con miles de documentos o monografías sin catalogar. Claro que habría que priorizar, para quitarse de en medio primero información a priori relevante y trascendente. 
El gran problema son los documentos físicos, se supone que para el 2017 se quiere tener todo digitalizado, así que confiando en Europa, eso ya está medio solucionado. Y pienso que sí será útil tenerlo todo digitalizado, pues el ser humano evoluciona hacia la comodidad y la vagancia, así que si buscamos cierta información y disponemos de dos alternativas: una buenísima información, pero en formato físico en la otra punta del país; y otra bastante regular pero en internet... la gran mayoría optará por conformarse. Así que si se tuviera todo digitalizado, no se presentaría tal dilema para la pereza.


Claro, que para mantener todo esto habrá que optimizar una red de datos que cree un monstruoso Archivo General, quizás por provincias<países<estados<etc. Pero que sea un solo archivo al final. Creo que habrá que avanzar el los sistemas de búsqueda, dejar atrás motores como Google e implantar nuevos motores documentales por semejanza, que potencien el browsing.


Esto es lo que pienso, más o menos, sobre la gestión de la información en el futuro. Y es algo que será, aunque nos pille sin estar preparados.