Por Mario Lia

Steve Mills

Sebastián Reckinger
“La consolidación de los datos maestros es un desafío crítico para las organizaciones y ningún otro proveedor ha puesto tanta capacidad en juego como IBM”, dijo Steve Mills, senior vice president de IBM en su discurso de apertura en el evento Information On Demand que su empresa llevó a cabo en la ciudad de Las Vegas, Nevada, Estados Unidos.
Más allá de lo marketinero de la proclama de Mills, en las empresas existe hoy una explosión de datos que residen en diferentes archivos; circulan millones de e-mails; el uso de RFID (Radio Frecuency Identification, etiquetas “activas” que identifican productos, lotes y hasta personas) es creciente; y como si todo eso fuese poco, los procesos de negocio exigen cambios y enriquecimiento funcional constante.
Para Mills, el desafío clave es un cambio en el modelo de información para el negocio, con integración de los procesos mediante arquitecturas con orientación a servicios (SOA) y consiguiendo la disponibilidad de información sobre los aspectos que hacen a la performance de la empresa, tales como reducción de niveles de inventarios, mejor retorno de los activos y menores overheads en todas sus operaciones.
Una arquitectura de sistemas de información con orientación a servicios consigue, según Mills, “conectar a las personas con los procesos del negocio”. Eso equivale a poder determinar cuáles son los activos esenciales de la empresa para entender cómo se los puede potenciar y poder, así, tomar decisiones competitivas.
La importancia de la información “on-demand”
IBM propone disponibilidad de información on-demand, en tiempo real y sumada a su integración con los procesos. El objetivo es que en una empresa se pueda ver “todo lo que lleva a aprovechar oportunidades de mercado y a neutralizar sus amenazas, mejorar los procesos y aumentar la competitividad”, dijo en su presentación Ambuj Goyal, gerente general de IBM Information Management.
Esta gobernabilidad de la información exige integridad de los datos. En una organización no puede existir un mismo cliente con diferentes características o denominaciones; tampoco puede ocurrir lo propio con pacientes, piezas físicas de materias primas o mercaderías, versiones de diseños, comunicaciones, etc.
IBM dispone de herramientas que almacenan y comprimen los datos, facilitan su clasificación y unificación de referencias y metadatos (que son los datos que describen los datos propiamente dichos).
Los CIO y gerentes de sistemas están bajo presión para reducir tiempos y volumen de almacenamiento de datos en sus operaciones diarias. Además, necesitan recursos para implementar nuevas aplicaciones. “Si en la empresa no existe una infraestructura que tenga velocidad y coherencia como para alimentar y extraer toda la información vital, las operaciones diarias irán mermando en su capacidad de responder mientras que, por otro lado, crecerá la dificultad para implementar nuevas aplicaciones”, agregó Goyal.
El camino de IBM
DB2 Warehouse 9.5 es un buen ejemplo del camino que sigue IBM. Sin necesidad de configurar un warehouse de datos físico convencional, permite el análisis en tiempo real de información estructurada o no y que puede estar ubicada en varias bases de datos, archivos y otros documentos. Para volúmenes extremos, dispone del servidor de datos DB2 9.5 Viper 2. La idea es que se pueda consultar la información a medida que va produciéndose y no tener que atravesar procesos de extracción, transformación y carga.
Entre las novedades presentadas en cuanto a productos estuvieron Enterprise Content Management versión 8.4, Data Studio y Master Data Management Server.
Master Data Management Server es una herramienta de integración de información que permite manejar todos los datos desde un punto único. Sin importar en qué base de datos o en qué departamento de la empresa o sistema esté la información, esta herramienta “ubica” los datos y los muestra o facilita a otras aplicaciones/procesos.
Bajo el paraguas “Information Management”, IBM coloca todo lo que hace al ciclo de vida de los datos y su utilización. Allí encontraremos elementos como la administración de eventos con un servidor especializado. Los eventos son ocurrencias ajenas a su representación en términos de datos. Por ejemplo, una tormenta puede afectar las operaciones de una línea aérea que deberá redirigir equipajes y pasajeros, reprogramar vuelos y cambiar tripulaciones. Si ese análisis de impacto se hace sólo con una base de datos, se tendrá una visión limitada y el resultado serán pasajeros insatisfechos, aviones esperando por una tripulación y otros efectos negativos.
El software Information Server de IBM permite que los usuarios consulten la información, términos de negocio y taxonomías en aplicaciones como Excel o software de reportes o modelado. También incluye captura de datos en tiempo real y tecnología de replicación para integrar, depurar y analizar grandes volúmenes de datos de producción sin alterar o interrumpir el rendimiento de los sistemas.
Para lo que hoy llamamos Web 2.0, IBM presentó Data Studio. Una herramienta de administración de datos integrada con la que los usuarios pueden combinar herramientas de otros proveedores para diseñar, desarrollar y administrar sus entornos de bases de datos y aplicaciones on-line.
La misión de Information Management
IBM ha creado una división o “brand” de Information Management que en la Argentina está a cargo del ingeniero Sebastián Reckinger y Mercado lo entrevistó con el objeto de informar a sus lectores qué es lo que se puede esperar de esta división de la compañía.
La “brand Information Management” tiene que ver con todo el potenciado de la información. Consiste en resolver toda la problemática de la creación y manejo de información en una organización. Desde gestión de documentación y su digitalización, a procesos de negocio que se acompañan con documentos, motores de bases de datos, BI o integración de información en sí”, nos dice Reckinger.
En IBM entendieron que era necesario agrupar todas esas problemáticas y disponer de una plataforma, compuesta de diversos productos y tecnologías, capaz de escalar a medida que se requiere nueva funcionalidad.
“Vemos que la información está dispersa y la posibilidad de tener un warehouse tradicional es extrayendo los datos de diferentes fuentes y aplicaciones para luego explotar a través de cubos y reportes. El inconveniente que esto puede traer a un negocio es que la carga del warehouse no es online. Lo que ahora se busca es un warehouse dinámico que vaya directamente a las fuentes de información a través de una capa intermedia Master Data Management, la cual puede centralizar todos los repositorios que hoy se tienen en una imagen central y en forma dinámica, que representa los datos hasta el momento en que se los utiliza. Eso permite ver en tiempo real lo que sucede con el negocio”, prosigue Reckinger.
Reckinger se ocupa de aclarar que IBM trata que sus soluciones sean abiertas, capaces de poder consultar cualquier motor de base de datos relacional y aplicativos de negocio como Sap, Oracle, Siebel, PeopleSoft, etc.
Mediana empresa, segmento interesante
¿Son estas propuestas tecnológicas sólo para las grandes empresas?
“Empresas medianas suelen tener la misma problemática pero en otra escala. Cualquier organización maneja documentos y puede ser más eficiente en su manejo. En general las empresas medianas tienen menos recursos para desarrollar aplicaciones ad-hoc para una determinada problemática y por eso puede resultarles una solución rápida de implementar, que retorne la inversión y que englobe los procesos principales de la organización sin tener que hacer un desarrollo o implementación en particular”, responde Reckinger.
“Toda organización necesita analizar la información. En organizaciones grandes hay áreas que hacen desarrollos para ciertos reportes y mantienen la información con la gestión adecuada. En la empresa mediana es importante que el sistema de soporte a decisiones pueda consultar directamente las fuentes sin tener que mantener una estructura específica porque no tiene recursos”, prosigue.
Según Reckinger, hasta las empresas grandes han superado la etapa de hacer las cosas ad-hoc, con desarrollo, extracción, captura y reporte. “Están buscando la automatización ya que los volúmenes de información son muy grandes y se trata de evitar el peligro de que la información sea errónea”.

