Header IA

Informe OBS: Inteligencia artificial, aprovechamiento inteligente de datos masivos usando Ingeniería del Conocimiento

Informes |

Las grandes decisiones se basan hoy en datos falaces

Portada IA

 

  • Un informe de OBS Business School denuncia la actual “deificación” de los datos masivos
  • Los sistemas de tratamiento del big data hoy son numéricos, lo que elimina
  • todos los matices y lleva a malinterpretar los datos
  • Es necesario el uso de ingeniería del conocimiento y otras disciplinas y tecnologías más ‘cognitivas’ y menos ’numéricas’

Enero 2022. OBS Business School, publica el informe: “Inteligencia artificial, aprovechamiento inteligente de datos masivos usando Ingeniería del Conocimiento”, elaborado por José Angel Olivas, Andrés Montoro y Antonio Lorenzo, Profesores de OBS Business School.

La deificación de los datos

Vivimos en una sociedad donde los números son los que marcan nuestro día a día. Todo se ha de convertir en cifras y estadísticas para, a partir de ahí, poder tomar las grandes decisiones: a qué segmento de la población vacunar, cómo organizar el tráfico en las ciudades, cuántas escuelas crear, etc. La Inteligencia Artificial y el big data son campos que han tenido un enorme desarrollo en los últimos años y gracias a ellos las autoridades y las empresas disponen de un mapa completo en el que basar sus decisiones. Pero ¿están siempre bien interpretados los datos? El profesor José Angel Olivas afirma: “Seamos serios desde un punto de vista ético y científico y no veamos los datos como una especie de ‘dios pagano’ que nos proporcionará la verdad absoluta. Nada más lejos de la realidad”.

Según explica el informe hay muchas características específicas que deben ser tenidas en cuenta cuando trabajamos con datos, información y conocimiento; y estos elementos no son considerados con su relevancia en la mayoría de los sistemas para el aprovechamiento de los datos masivos disponibles. Ello provoca unos resultados demasiado pobres, erróneos o irrelevantes, lo que se hace evidente en muchos de los sistemas de anticipación al futuro que se publicitan, como el pronóstico electoral, la estimación de evolución de conflictos o pandemias, la evolución de factores económicos, Euribor, IPC, inflación y un largo etcétera. Por lo tanto, cuando alguien argumenta que algo es objetivo o irrefutable porque se apoya en datos, el argumento es falaz por definición, según indica el profesor Olivas: “Ni hacienda tiene unos datos perfectos ni completos de todos nosotros. Por ejemplo, en esta dura pandemia que nos azota, se han tomado decisiones falaces en base a supuestos datos objetivos”.

Y es que, aunque hoy se manejan millones de datos, lo cierto es que son necesarios sistemas computacionales más inteligentes en el sentido humano y en cuanto a sus prestaciones que muchos de los que usan únicamente técnicas numéricas aisladas, y que son los que hoy en día se asocian principalmente con el término ‘inteligencia artificial’. El informe de OBS propone el uso de modelos de ingeniería del conocimiento y otras disciplinas y tecnologías más ‘cognitivas’ y menos ’numéricas’, como el Soft Computing, el enfoque semántico/lingüístico del procesamiento del lenguaje natural o algunos aspectos de la sociología y la psicología con el fin de mejorar el comportamiento y los resultados de estos sistemas. Además, hay que tener en cuenta que un elemento central debe ser la capacidad de transferir esos modelos a la tecnología de la sociedad, el tejido empresarial y la industria, contribuyendo al desarrollo de sistemas computacionales más robustos, humanos y con mayores capacidades de anticiparse al futuro en sus diferentes formas.

El tratamiento

El informe de OBS distingue entre datos estructurados, semi-estructurados y no-estructurados. Los primeros son aquellos fácilmente interpretables porque están organizados de una forma clara en cuanto a campos, registros y relaciones, con formatos prediseñados. Los semi-estructurados y los no-estructurados, sin embargo, no siempre están sujetos a formatos predefinidos, como pueden ser un video o una imagen abiertos o un texto libre. Actualmente no existen herramientas que puedan manipular directamente datos no-estructurados, sino que deben ser convertidos en estructurados para poder manejarlos, y ello hace que en el proceso se pierdan características importantes. Un vídeo, una imagen o un texto pueden contener afirmaciones irónicas, por ejemplo, que a día de hoy una máquina no puede interpretar correctamente. Por ello se debe ser muy cuidadoso en el proceso para minimizar las pérdidas de representatividad y así maximizar las posibilidades de aprovechamiento de los datos. José Ángel Olivas, afirma que se bebe seguir investigando en el desarrollo de modelos, técnicas y herramientas que nos acerquen al tratamiento real de datos no-estructurados.

El informe concluye que para abordar problemas complejos no suele ser suficiente la aplicación aislada de algún procedimiento, algoritmo o método de análisis de datos numéricos, que es lo que se suele hacer en muchas ocasiones. Estos mecanismos sólo admiten como entrada conjuntos de datos estructurados, numéricos y normalizables, que dista mucho del contenido de un lago de datos (data lake) unido a todo el conocimiento que puede haber sobre un tema en cuestión. Por lo tanto, en casos reales complejos es necesario, además de hacer un análisis numérico de los datos disponibles, combinarlo con la ingeniería del conocimiento del entorno, que nos guíe en dicho aprovechamiento de datos masivos.

Contenido elaborado por:
Carmen García-Trevijano
Gabinete de Prensa de OBS Business School

DESCARGAR INFORME