Enero 2009
Newsletter de Business Intelligence
N°7

En este Newsletter...

Capacitación de Alto Valor Agregado en Business Intelligence Entrar

Temas abordados en esta edición:

- Business Intelligence

- Data Mining

Super temperament contrast color silk scarf small square replica handbags uk, showing the feminine elegance and gucci replica , red and white, hermes replica , fashionable and handbags replica, the body is very white, the biggest highlight is the silk on the strap Towels can be used for a replica handbags .
Oportunidades en Tiempos de Crisis

Una crisis es una etapa particular de cambios rápidos, a veces violentos, y difíciles de prever en un proceso evolutivo socioeconómico relativamente inestable. Es un período de incertidumbre, de reestructuración, más que de expansión, donde el impacto de las buenas decisiones significa la supervivencia y el de las malas la extinción en un plazo relativamente corto. Afloran distintos mecanismos defensivos perjudiciales, pero también adquieren aun mayor importancia los recursos internos de una organización.

Una crisis es una etapa en la que florecen los agoreros, gurúes, opinadores, buscadores de culpas ajenas y otras tantas subespecies del Homo sapiens. Se exacerban los intereses corporativos de diversos sectores de la sociedad, el pensamiento mágico y fantasioso, el voluntarismo, las angustias, las conductas preventivas (exageradas), los mecanismos defensivos (negación y otros tantos) y otros diversos fenómenos que solo logran aumentar el nivel o la agudeza de la crisis, y contribuyen más a la extinción que a la supervivencia.

Algunos sectores de una sociedad (estados, partidos políticos, gremios y otros) pueden ampararse en el voluntarismo, las ideologías políticas, las grandes “teorías” (¿cuántas veces escuchó hablar en el último tiempo de “neolieralismo”, “neokeynesianismo”, etc.?) y, a pesar de la considerable ignorancia y falta de capacitación de su estamento dirigente, sobrevivir. Pero esta no es, en general, una alternativa posible ni deseable para las empresas. Aunque incómodas, las crisis son oportunidades de cambios significativos, la posibilidad de lograr un nuevo y más estable equilibrio y perspectiva. Las crisis en general y sus manifestaciones no son nuevas. Han ocurrido a lo largo de la historia reciente suficientes veces, dándoles a los científicos sociales amplias oportunidades para estudiarlas, descubrir sus mecanismos y desarrollar herramientas para enfrentarlas. Las causas pueden variar, pero las estructuras y procesos biológicos, sociales y económicos se mantienen suficientemente similares a lo largo de periodos prolongados de tiempo y sucesivas crisis. Gracias a esto, los conocimientos e instrumentos desarrollados por los científicos sociales conservan plena vigencia y utilidad.

Una respuesta exclusivamente económica ante una crisis es insuficiente, tanto para una entidad trasnacional como para una humilde pyme. Esgrimir clichés remanidos, surgidos de filosofías o teorías vagas y olímpicamente generales, evita incómodos vacíos comunicativos en dirigentes que se sienten impelidos a aportar su “granito de arena”, pero no modifican la situación real, solo son síntomas de incapacidad y carencia de recursos. Las grandes y tantas veces mencionadas teorías económicas, están demasiado distanciadas de los sucesos concretos de nuestro complejo mundo real. Las inferencias deductivas que hay que realizar a partir de ellas para “bajarlas” a una situación práctica son tantas, tan diversas y heterogéneas, que vuelven a estas grandes teorías prácticamente inútiles en la práctica. Solo sirven para alimentar mecanismos defensivos (no adaptativos) de negación, distorsión de la realidad, estereotipia de decisiones y conductas, etc. El refrán de que “no hay nada más práctico que una buena teoría” sigue siendo muy válido, pero las “macro” teorías económicas no son, justamente, las teorías apropiadas.

Los científicos sociales (en un sentido amplio) estudiaron, durante los últimos cincuenta años, los mecanismos, características, futuro, etc. de nuestras sociedades post-industriales. Estos estudios incluyen herramientas “blandas” (teorías y conceptos de las características y mecanismos sociales) y herramientas “duras” (métodos, técnicas, algoritmos, etc. aplicables a distintos tipos y niveles de problemas). Muchos de estos estudios incluyen, precisamente, los fenómenos de crisis.
Viejos maestros como Geoffrey Vickers (1894-1982), Fred Emery (1925-1997), Eric Trist (1909-1993), Peter Checkland (1970- ), Herbert Simon (1916-2001), y varios más, ya formularon gran parte de las respuestas que necesitamos (para quienes quieran oírlas). En sus formulaciones no están ausentes los valores, la ética, la responsabilidad, las expectativas, los ambientes turbulentos, los horizontes de previsibilidad, la racionalidad limitada y tantas otras cuestiones que deben guiar a las implementaciones prácticas.

En un nivel intermedio de abstracción, los distintos programas creados para mejorar la la efectividad de las empresas ofrecen concepciones y herramientas probadas y útiles. Unos cuantos años después de su puesta en práctica inicial, y con la perspectiva del tiempo transcurrido y los resultados obtenidos, es claro que ninguna es una “silver bullet”, pero que, complementándose y apropiadamente aplicadas, pueden ser instrumentos efectivos en la supervivencia de organizaciones en tiempos turbulentos. Es así que enfoques como los programas Just-In-Time, desarrollados desde la década de 1920 en adelante, los de Total Quality Management, los de reingeniería de procesos y la Teoría de restricciones, más recientes, en apropiada complementación son “toolkits” potencialmente efectivos. En el nivel inferior de abstracción, todas las concepciones antes formuladas recurren a herramientas analíticas bien conocidas de predicción, optimización, satisfacción, análisis de datos, análisis de sensibilidad, escenarios what-if, etc. Son todas herramientas probadas, relativamente conocidas por las empresas (aunque es cierto que en muchos casos no han desarrollado destrezas para su aplicación en un nivel apropiado), y para las que la mayoría ya disponen de herramientas computacionales mínimas (o no tan mínimas, según el caso) razonables.

La buena noticia de todo lo anterior es que no hace falta inventar nada para sobrevivir e incluso prosperar en la crisis. No se necesitan grandes y costosas inversiones en hardware o software, ni prolongadas capacitaciones. La resolución del problema consiste en tomar las decisiones apropiadas basadas en teorías y prácticas adecuadas e implementarlas de un modo eficaz. La información necesaria surge, en la mayoría de los casos, de los sistemas existentes ya instalados. El ambiente turbulento no exige realizar predicciones u optimizaciones con una precisión muy grande ni necesariamente muy frecuente o acelerada, más bien realizarlas en el sentido apropiado y con las concepciones indicadas. Todo esto no requiere de grandes recursos, pero si del conocimiento, las destrezas y la experiencia apropiadas.

La mala noticia es que esto último viene siendo un recurso bastante escaso en la última década. La política de recursos humanos de las grandes consultoras (esencialmente la misma en todas) y de unas cuantas empresas de software asociadas con ellas viene atentando desde hace años contra una ley fundamental de la “ecología social”, para usar el término de Vickers. Esta ley dice algo así como lo siguiente: la medida en que un sistema es capaz de adaptarse exitosamente a su entorno es función directa de su variedad. Es decir, cuánto más homogéneo (y especializado) es un sistema, mayor el riesgo de su extinción cuando cambian las condiciones del entorno. Las grandes consultoras han tendido a especializarse en cuestiones que en ambientes estables, de expansión, y más o menos previsibles, son indudablemente importantes, pero que en este momento han pasado a segundo plano.

Todos los recursos de la mayoría de las consultas grandes se orientaron en este sentido; especializándose, usando como recurso humano principal una masa de consultores junior de baja y estrecha experiencia, y perdiendo, en buena medida, buena parte de su memoria institucional. Por lo tanto, carecen de variedad para enfrentar situaciones de crisis como la presente. Surgen, entonces, los “charlistas”, e incluso malas interpretaciones o implementaciones desviadas de las que serían las herramientas naturales en este momento. Muchas de estas conductas pueden interpretarse como mecanismos defensivos (de las consultoras) ante la crisis. Se advierte en muchos casos una importante tendencia a negar sistemáticamente (por desconocimiento o no) unas cuantas cuestiones fundamentales ya conocidas de las crisis y a proponer más (mucho más) de lo mismo, justamente de lo único que a esta altura saben o recuerdan cómo hacer. Lamentablemente, esto no es muy útil para la supervivencia de una empresa que intenta navegar en mares turbulentos y llegar a buen puerto.
Un buen ejemplo de esta situación respecto de las consultoras puede verse en un seminario público reciente referenciado más abajo. Es interesante la mezcla de conceptos válidos e indudablemente útiles (en determinadas situaciones, de ciertos modos, etc.) con un enfoque general de “más de lo mismo”. A diario pueden encontrarse ejemplos similares en diversos foros, congresos, publicaciones, etc.

Algunas sugerencias para aprovechar las oportunidades que plantea la crisis actual:

  • Los principales recursos de supervivencia y desarrollo de una empresa son internos: ya cuenta con ellos.
  • De estos. el principal es el de los recursos humanos. Con el liderazgo apropiado, son el puntal fundamental, de otra manera, serán uno de los obstáculos más importantes.
  • La mayoría de los otros recursos fundamentales deben reorganizarse de manera de maximizar eficiencia y efectividad. En este contexto una utilización experta de herramientas simples de costing y soporte a las decisiones son muy importantes.
  • Es muy probable que esté utilizando las herramientas tecnológicas de las que dispone (de warehousing, BI, marketing, etc.) de una manera sumamente ineficaz. Es el momento de evaluar esta cuestión y corregirla.
  • Desconfíe de las “grandes teorías” y de los charlistas tecnológicos para los que las soluciones pasan por más (mucho más) de lo mismo.
  • Recuerde que la variedad es la clave de la supervivencia. Si necesita apoyo externo, recurra a los sitios donde esta se conserva (por lo general, no en las grandes consultoras).
  • Si necesita inspiración, hojee un buen libro de alguno de los grandes científicos sociales de hace no muchos años.

Para consultar:

Planificación e Implementación de Proyectos de Data Mining

En la actualidad la planificación e implementación de un proyecto de Data Mining puede beneficiarse de al menos quince años de experiencias (buenas y malas) en el tema. Como con cualquier nueva tecnología, hemos atravesado períodos de sobreventa, decepción y finalmente perspectivas más realistas. El Data Mining como actividad mostró claramente su potencialidad y alcance, al mismo tiempo que se hicieron evidentes algunos errores comunes que suelen reiterarse más de lo deseable en muchos proyectos.

Luego de una mención de los errores más frecuentes, hacemos un breve análisis de los mismos. Finalmente esbozamos un esquema de estrategia para lograr proyectos exitosos. Una versión detallada de esta estrategia es la que MAySA propone para sus proyectos en data mining.

Errores comunes

Existen varios errores muy frecuentes en la planificación e implementación de un proyecto de Data Mining que conviene evitar. Muchos de ellos atentan seriamente contra el éxito de este tipo de proyectos.

  • Proyectos “ad hoc”: considerar un proyecto de data mining en forma aislada de los objetivos estratégicos de la empresa, los recursos disponibles, etc.
  • Concentrar la mayor parte del esfuerzo en la decisión de qué software adquirir
  • Sobreestimar o subestimar los datos y la infraestructura de acceso disponibles
  • No definir, o no hacerlo apropiadamente, la inserción de los resultados de un proyecto de data mining en la cadena de valor de la empresa
  • No definir, o no hacerlo apropiadamente, el ROI de un proyecto de data mining
  • Recurrir a partners inapropiados
  • Subestimar las tareas preparatorias al desarrollo de modelos de data mining
  • Sub- o sobreestimar la capacitación y experiencia del recurso humano asignado al proyecto de data mining

Análisis de los errores comunes

Proyectos “ad hoc”

Este es, tal vez el error más importante debido a sus consecuencias. Muchas veces (demasiadas) un proyecto de data mining surge de diversas motivaciones un tanto vagas. En lugar de ser el emergente de una necesidad natural a partir de consideraciones estratégicas y consensuadas dentro de una empresa, con demasiada frecuencia los proyectos de data mining son planteados como un “must do” por parte de un pequeño sector directivo temporalmente influyente, sin un fuerte compromiso o comprensión de otros sectores de la empresa. Las motivaciones del sector directivo impulsor están más cerca de la adopción de una moda, imitar experiencias exitosas pasadas, etc. Por lo general, esto produce proyectos que nacen divorciados de un panorama estratégico global, que se desarrollan enquistados, desaprovechando los recursos propios e insertándose malamente dentro de la cadena de valor de la empresa y que desaparecen, más tarde o más temprano, sin alcanzar siquiera los cálculos más pesimistas de ROI (si es que se hicieron alguna vez).

Este error es responsable, o al menos potencia, la mayor parte de los errores que mencionamos a continuación. En lugar de que la inserción estratégica del proyecto pase a ser la cuestión importante, se derrocha tiempo y esfuerzo en problemas que muchas veces son, en realidad, pseudo problemas, como qué software adquirir, o en realizar proyectos de ETL “ad hoc” o “ingenuos” para asegurarse (más bien tranquilizarse) de tener datos disponibles una vez comprado el software de análisis.
La inserción estratégica del proyecto de data mining (definición de objetivos coordinados con los objetivos estratégicos de la empresa, una integración a su cadena de valor, el aprovechamiento de los recursos muchas veces desaprovechados, etc.) es una de las claves principales de un proyecto de Data Mining exitoso.

Este problema de un proyecto de data mining funcionando en un “vacío organizacional” ya ha sido advertido por diversos analistas e investigadores. Uno de los intentos de resolver esta cuestión es el llamado Data Mining Organizacional (DMO): “Data Mining es el proceso de descubrir e interpretar patrones previamente desconocidos en bases de datos. Es una poderosa tecnología que convierte los datos en información y conocimiento potencialmente accionable. Sin embargo, obtener nuevo conocimiento en un vacío organizacional no facilita una toma de decisiones óptima en un marco de negocios. El desafío organizacional único de comprender y utilizar DMO para producir conocimiento accionable requiere asimilar las perspectivas de campos organizacionales y técnicos y desarrollar un marco abarcativo que soporte la búsqueda de una ventaja competitiva sustentable por parte de la organización” (Nemati y Barko, 2004).

Qué software adquirir

Existe una considerable confusión sobre el problema del software. Para quienes intentan planificar e implementar un proyecto de data mining esta suele ser la razón fundamental de sus desvelos. La expectativa de obtener el “mejor software”, hurgar en detalles (muchas veces irrelevantes), considerar demos muchas veces atractivas pero de dudosa utilidad, etc. se apoyan en la creencia (falsa) de que el software de data mining es el elemento clave y esencial del proyecto. Pero esto no es así y muchas veces es un despropósito el tiempo y esfuerzo que se emplea en esta cuestión.

Existen métodos bastante consolidados para la evaluación del software que pueden utilizarse (aunque raramente se hace) y, obviamente, contar con un conjunto de herramientas informáticas apropiadas es importante. Sin embargo, si tan solo se consultan las evaluaciones de consultoras como Gartner, Bloor y otras tantas puede advertirse que existe una cantidad relativamente grande de software de data mining con muy buenas características, seguramente perfectibles, pero (y este es el punto) que exceden considerablemente la capacidad de utilización y aprovechamiento por parte de empresas con proyectos incipientes o no tanto.

Las principales dimensiones a tener en cuenta al evaluar un software son performance, funcionalidad, usabilidad y soporte de tareas auxiliares (incluyendo la integración con componentes de ETL, reporting, etc.). Cualquiera de los grandes players tiene mucho que ofrecer en cualquiera de estas dimensiones. Heurísticas generales como la magnitud de inversión del vendedor de software en investigación y desarrollo, la amplitud y profundidad de su software para la realización de tareas de análisis estadístico de datos, el apoyo de una plataforma empresarial de software en la que el componente de Data Mining se inserta, la base de un lenguaje de programación sólido de cuarta generación y otros tantos criterios técnicos bastan para una evaluación rápida y efectiva de las alternativas de software (estos y otros tantos criterios son los que usan Gartner y las otras evaluadoras). Pero todos los grandes vendedores de software de Data Mining tienen muy buena performance en todas estas características. Por eso, las diferencias entre ellos son irrelevantes para la mayoría de los proyectos.

De modo que la cuestión del software pasa más por el costo en relación con un ROI apropiadamente definido, por los “extra” que puedan obtenerse del vendedor de software, por el apoyo a nivel de entrenamiento, soporte, etc. (aunque véase más abajo) que pueda obtenerse. La utilidad de los otros “diferenciales” más técnicos o académicos es bastante opinable. Poner énfasis en estos últimos es otro despropósito frecuente.

En la gran mayoría de los casos, los problemas y motivos de insatisfacción con un software determinado tienen mucho más que ver con la incapacidad, tanto del equipo técnico del cliente como de los representantes de la empresa de software (vendedores, soporte técnico, etc.), de resolver los problemas (inevitables) que surgen debido a los déficit, señalados más abajo, del recurso humano, que a verdaderas falencias de las herramientas informáticas.

Datos e infraestructura de acceso disponibles

Hasta hace no demasiado tiempo, había pocos datos (en formato digital). Ahora hay muchos, y esto ha sido una fuerza impulsora del data mining. Sin embargo, los “muchos datos” suelen encontrarse fragmentados en distintas fuentes, con distintos formatos, con una calidad dudosa y, aún ahora, para problemas de negocios específicos, puede ocurrir que falten datos.

La necesidad de un acceso apropiado (oportuno, eficiente, etc.) a datos adecuados (relevantes, vigentes, limpios, etc.) para tareas de data mining, y BI en general, fue la fuerza impulsora de “disciplinas” como el “datawarehousing” y “data quality”, de conceptos y herramientas como los estándares de metadatos, las “data federation”, las arquitecturas orientadas a servicios (SOA), los cubos OLAP y tantos otros. El área de acceso a los datos para data mining se volvió muy compleja, con tantas herramientas como problemas. Actualmente un proyecto de DM presupone un proyecto paralelo (y sincronizado) de acceso a los datos, y existen diversas metodologías para la planificación e implementación coordinada de proyectos de warehousing, data quality, mining, etc. (Por ejemplo, la metodología IPI propulsada por SAS).

Es una ocurrencia muy frecuente subestimar la cuestión del acceso a los datos (supone no un acceso de única vez, sino un acceso sistemático, organizado y periódico, a datos con una semántica y una calidad apropiada, entre otras cosas). Suele creerse que la escritura y ejecución exitosa de un conjunto de programas en sql que producen algún conjunto de datos potencialmente relevantes (pero que no responden a ninguna formulación de objetivos de mining concretos, de modo que la presunción de relevancia es un tanto vaga) resuelven el problema o muestran que el problema sería fácilmente resoluble. Esta falsa creencia tranquiliza provisoriamente al equipo encargado de un proyecto de data mining, pero es, más tarde, responsable de considerables retrasos, conflictos y deterioro de las relaciones con quienes deben recibir los resultados de mining. La disponibilidad de un conjunto de datos inespecifico (sin relación muy concreta con proyectos de mining específicos) no es garantía en absoluto de que durante la puesta en producción de tareas de mining concretas se vaya a disponer de los datos relevantes y apropiados.

También es una ocurrencia frecuente la sobreestimación del problema. Esto se ve en una inversión de recursos desmedida en una infraestructura de acceso a los datos que alimentaría el proyecto de mining, en detrimento de las tareas posteriores de análisis de esos datos o, incluso, en un déficit en la definición de cuáles exactamente serían los datos apropiados. De esta manera los datos están (aunque no siempre, a veces se descubre que se invirtió un gran esfuerzo en ganar acceso a los datos equivocados), pero el producido analítico es tan pobre que no justifica el esfuerzo invertido.

Inserción de resultados en la cadena de valor de una empresa

El error de una definición inadecuada (o inexistente) de la inserción de los resultados de mining es, en buena medida, una consecuencia de la ausencia de una concepción estratégica. Es moneda corriente el desaprovechamiento de los resultados de data mining por parte de los sectores que debieran ser sus principales beneficiarios y la capacidad ociosa (en software y recursos) en el sector de data mining, apenas transcurridos unos pocos meses de la implementación de un proyecto. La forma más eficaz de evitar este problema consiste en un diseño estratégico del proyecto y emplear una de las tantas metodologías conocidas que logran una participación e involucramiento de los distintos sectores implicados (Para solo dar un ejemplo, la de centros de competencia).

ROI de un proyecto de DM

Un cálculo (apropiado) del ROI de un proyecto de DM sirve para poner los pies en la tierra y ganar una perspectiva adecuada para la mayoría de las cuestiones que surgen en un proyecto de este tipo. Es sorprendente la cantidad de proyectos que eluden completamente la cuestión. El esfuerzo de generación de un ROI apropiadamente definido es una excelente herramienta para acercarse a una inserción estratégica del proyecto. No es posible definir un ROI sin una mirada de mediano plazo vinculada a los objetivos estratégicos de la empresa. Tampoco es posible definirlo sin considerar bastante precisamente cómo será la inserción de sus resultados en la cadena de valor de la empresa. Por otro lado, una resolución apropiada de la inversión en software, recursos humanos, consultoría, etc. pasa ineludiblemente por la consideración del retorno esperado.

Partners inapropiados

Una empresa con un proyecto de data mining suele utilizar los servicios de consultoria de la empresa productora del software que adquirió o de una consultora “partner”. Muchas veces, estos resultan ser los “socios” inapropiados, por diversas razones. Solo mencionaremos las más evidentes. Debido a la política de recursos humanos imperante, las empresas productoras de software y consultoras asociadas (especialmente las de primera línea) trabajan con personal poco calificado y casi ninguna experiencia. Justificaciones hay muchas, pero cuando se lleva esta política a la práctica, esto significa que el staffing de un proyecto está compuesto por algunos consultores junior con escasa o ninguna experiencia, a veces (no siempre) algún consultor senior que podría, o no. tener experiencia y conocimiento (esto es bastante aleatorio) y algún Project manager con escaso conocimiento técnico del proyecto (y lo que es peor, interés). Es cierto que muchos de los grandes vendors y consultoras poseen explícitas y detalladas metodologías de implementación de proyectos, y esta es una de las justificaciones de la política de recursos humanos de bajo nivel. Con un “andador” metodológico tan detallado, ¿quién podría equivocarse? Sin embargo, ocurren fenómenos curiosos, que más de una vez resultan explosivos en el desarrollo de un proyecto. Para solo mencionar un ejemplo, el de los “hitos”. Un instrumento, en principio apto para resolver la cuestión del monitoreo del desarrollo de un proyecto, como es el cumplimiento de hitos, muy frecuentemente se ve desvirtuado y, al contrario, atenta contra el éxito de un proyecto.

Cuando en un proyecto se emplean recursos de bajo nivel, el hito no es una consecuencia de una etapa exitosa sino prácticamente el objetivo, a lograr como sea. Esto pervierte un instrumento potencialmente eficaz. En nuestra experiencia, existe una alarmante frecuencia de hitos alcanzados de maneras dudosas, mediante soluciones, herramientas, etc. totalmente irrazonables y frágiles (suelen “romperse” a los pocos días de aprobado el hito). En manos de recursos no calificados, el éxito de una etapa y el cumplimiento de un hito pasan a ser dos objetivos distintos que compiten entre sí. Como el cumplimiento exitoso de la etapa suele ser irrealizable para ellos en los plazos definidos (justamente por la falta de capacitación), todos los esfuerzos se vuelcan a llegar al hito (como sea) que es, después de todo, lo (único) que le interesa a un Project manager, que en general no quiere verse involucrado en “tecnicismos” que no comprende. En síntesis, una historia de perversión.
En general, la filosofía de staffing imperante de proyectos de data mining (y otros) es dudosa y, junto con el déficit de una inserción estratégica del proyecto, es una de las principales razones del fracaso de tantos proyectos.

Tareas preparatorias

Por más que las empresas de software transmitan la impresión de que si se tienen los datos, obtener un resultado de data mining es poco menos que inmediato e “indoloro” (gracias a la usabilidad, performance, etc. de sus herramientas), esto es fantasía pura. Cada problema de negocios a resolver mediante alguna técnica de data mining plantea sus propias exigencias en lo que a preparación se refiere. Una implementación exitosa de un proyecto de warehousing, data mart o similar, incluyendo una apropiada implementación de técnicas de data quality pueden facilitar las tareas de data mining, pero las tareas preparatorias de un proyecto específico concreto nunca desaparecen.
En muchos contextos es posible “automatizar” modelos, en el sentido de aplicarlos sistemáticamente en intervalos de tiempo regulares. En este contexto, las tareas preparatorias pueden también automatizarse, pero surgen, en reemplazo, tareas que un “administrador de modelos” debe realizar para verificar y monitorear la validez y confiabilidad de los modelos empleados. Estas tareas sustituyen en alguna medida a las tareas clásicas de preparación de datos. Las tareas preparatorias no son en general del todo automatizables y requieren una considerable capacitación, lo que nos lleva al último tema.

Capacitación y experiencia del recurso humano

Al igual que tantos otros instrumentos tecnológicos, un software de data mining es tan bueno o tan malo como la mano que lo controla. En lo que a la implementación de un proyecto específico se refiere, la única garantía final de éxito es la capacitación y experiencia del grupo humano que lo lleva a cabo. Si esto está, cualquier otro problema es resoluble. Data Mining es una disciplina con algunos “handicaps”: es una disciplina novedosa (no más de quince años de edad) en una intersección inestable entre diversas disciplinas más “consolidadas” (estadística, aprendizaje automático, bases de datos, etc.). La formación académica en DM es irregular por diversas razones.

Un “miner” capacitado y experimentado debe tener una experiencia sólida en las ramas principales de la estadística, una buena formación en bases de datos y algún lenguaje relacional, un conocimiento teórico significativo de algoritmos y estructuras de datos, aprendizaje automático y un conocimiento práctico sólido en algún lenguaje de programación de cuarta generación y en los componentes relevantes de software de por lo menos alguno de los grandes vendedores de software (no solo en el componente de data mining).

Es verdad que muchas carreras de especialización y maestrías en data mining incluyen estos temas, pero también es cierto que por la filosofía de implementación de estas carreras y debido también al público heterogéneo al que sirven (desde médicos hasta actuarios y contadores, pasando por las más diversas profesiones), la formación resulta muy deficitaria. La mayoría pasa a “saber mucho de nada” y termina desarrollando e implementando en la práctica la falacia de la “caja de herramientas”: para ellos data mining es un conjunto de herramientas, sin mayores relaciones entre ellas, que sacamos de una caja para resolver un problema determinado,. El paso siguiente en la “trayectoria” profesional del esbozo de miner es, entonces, volverse “especialista” en alguna herramienta y, por supuesto, en esta perspectiva, para un martillo cualquier cosa es un clavo.

Estas y otras cuestiones relevantes hacen a una escasez aguda de recursos verdaderamente calificados y producen distintos fenómenos que se observan con mucha frecuencia en las empresas: proyectos de data mining de muy bajo nivel (inútiles, en realidad), recursos humanos con escasa comprensión de las tareas que realizan y las herramientas que utilizan, personal de cualquier área y con escasa o ninguna formación asignada a este tipo de tareas, y tantas otras experiencias similares.

Elementos de la estrategia de MAySA

En MAySA utilizamos una estrategia de planificación e implementación de proyectos de data mining que es producto de la destilación de nuestra propia experiencia, de estrategias formuladas por diversos vendors y consultores, y, más que de las historias de éxito tan difundidas por estos, de las historias de los fracasos (estas se encuentran más ocultas, hay que escarbar bastante para obtenerlas).

La estrategia tiene muy en cuenta los errores y problemas antes mencionados. Para evitar las consecuencias de objetivos de negocios vagos, se define con anterioridad a la planificación del proyecto de DM cuestiones básicas como los objetivos estratégicos y la situación actual de la empresa (objetivos, problemas, recursos), los objetivos estratégicos del proyecto, las áreas prioritarias de aplicación, las métricas de éxito del proyecto y una cuantificación de sus beneficios (en lo posible mediante un análisis de costo-beneficio).

Se busca realizar un relevamiento de los recursos existentes, y el involucramiento del personal clave en toda la empresa. La estrategia incluye la evaluación de las herramientas de software apropiadas y la participación en la relación con el o los proveedores de software, a fin de evitar consabidos “ruidos” y desinteligencias que consumen mucho tiempo y esfuerzo.
El staffing por parte de MAySA se compone de personal junior con real experiencia específica y la supervisión imprescindible de un consultor senior con experiencia práctica consolidada en el tema. Este equipo realiza transferencias progresivas de conocimiento y técnicas mediante una mezcla de cursos de entrenamiento, workshops, coaching y evaluaciones, planificados y organizados a lo largo de la implementación de un proyecto.

Finalmente, la implementación de la estrategia se realiza mediante ciclos de refinamiento progresivo a través del desarrollo de prototipos en cada proyecto específico cuya performance se incrementa en los ciclos sucesivos. De esta manera, se logra una inserción inicial rápida en la cadena de valor, y una estimulación y mejoramiento de la participación de los distintos sectores de la empresa involucrados que serán los principales beneficiarios.

Para mayor información sobre nuestra estrategia, consulte a info@maysaconsultores.com.ar

Referencias:

Si no quiere seguir recibiendo este Newsletter por favor enviar un mail de respuesta colocando "EXCLUIR" en su título.
Copyright © 2009 MAySA Consultores. Todos los derechos reservados.