Inteligencia Artificial

Definiciones de Big Data e Inteligencia Artificial de la D a la H

Gracias a la colaboración de nuestro socio, Strategy Big Data, te ofrecemos un listado de términos relacionados con el mundo del Big Data y la Inteligencia Artificial.

Por Redacción España, el 17/02/2020

auto ¿Te ha gustado nuestro artículo? ¡Vota!

A día de hoy, casi todos los dispositivos que utilizamos implican el uso de la Inteligencia Artificial, Big Data, Machine Learning o derivados. Si quieres entender las herramientas y procesos que intervienen en la tecnología del futuro, te ofrecemos un diccionario de bolsillo con definiciones de términos relacionados con el Big Data y la IA (Parte 2).


D


19. Data Lake

El Data Lake o lago de datos es un sistema que conecta diferentes bases de datos y que sirve para almacenar la información en bruto, es decir, al natural. Este sistema permite reestructurar la información de las bases de datos según la necesidad del usuario.


20. Data Mining

La minería de datos o Data Mining es un concepto que se centra en analizar profundamente una base de datos a fin de encontrar aspectos que permitan extraer valor para los objetivos operacionales del negocio.


21. Dark Data

Dark Data, datos oscuros o Dusty Data es un subconjunto del Big Data formado por datos desestructurados almacenados en las bases de datos y que no se han analizado ni tratado.


22. Data Warehouse

El Data Warehouse es el primer paso antes de llegar al Business Intelligence. Un tipo de base de datos corporativa caracterizada por su capacidad para integrar y depurar información de una o más fuentes. Esto otorga la posibilidad de procesarla desde diferentes perspectivas y con grandes velocidades de respuesta.


23. Deep Learning

Deep learning es una disciplina de las Ciencias de la Computación que se encuadra dentro del Machine Learning. Busca el desarrollo de tecnologías encargadas de procesar datos a través de arquitecturas computacionales que simulen el pensamiento humano creando una la red neuronal artificial.


24. Data Science

Se trata de un conjunto de herramientas que utiliza métodos, procesos, algoritmos y sistemas científicos para extraer información valiosa de los datos en bruto.

Por su parte, la ciencia de datos es un campo que se sirve de las matemáticas, estadísticas y disciplinas informáticas para desarrollar sus procesos y además, incorpora novedosas técnicas como el aprendizaje automático, el análisis masivo y la extracción de datos.


25. Dirty Data

Dirty Data es un problema muy común en las bases de datos. Todos los datos erróneos, inexactos o falsos y cualquier registro duplicado se considera Dirty Data, ya que violan las reglas de negocio y no tienen un formato generalizado.


26. Datos estructurados

Los datos estructurados son información enmarcada en las bases de datos relacionales (RDBMS). Suelen ser archivos de texto que se almacenan en formato tabla, hojas de cálculo o bases de datos relacionales con títulos para cada categoría que permite identificarlos.


27. Datos no estructurados

Los datos no estructurados, generalmente binarios, son un tipo de dato que no posee una estructura interna identificable. Más bien es un conjunto de información que debe identificarse y almacenarse de forma organizada a través de una base de datos específica.


28. Data Cleansing

Data Cleansing hace referencia a la limpieza de datos. Un método de análisis, corrección y eliminación de registros de datos erróneos, inexactos e incompletos de una base de datos específica.


E


F


29. Fast Data

El Fast Data permite utilizar tecnologías dinámicas para analizar datos en tiempo real y obtener patrones con gran velocidad de respuesta.


G


H


30. HDFS

HDFS responde a las siglas de Hadoop Distributed File System, es decir, un sistema de archivos distribuido que usa Hadoop como sistema de almacenamiento de ficheros. Está formado por clústeres GNU/Linux y contruido en Java, aspecto que permite instalarlo en multitud de máquinas.


31. Heurística

En Big Data, el aprendizaje está basado en heurísticas elaboradas en función de los datos generados por los usuarios. La heurística, deja de lado lo óptimo para buscar soluciones prácticas, es decir, un método suficiente para seguir avanzando y aprender.


32. Hadoop

Hadoop es un framework de código abierto de Apache Foundation, es decir, cualquier usuario con permisos puede acceder de forma libre y gratuita, y puede modificar o adaptar a las necesidades particulares del proyecto.


33. Histograma

Sistema de representación gráfica de datos cuantitativos, generalmente a modo de gráfico de barras verticales u horizontales.

TAGS:
Imagen del autor Redacción España

Equipo de redacción de B12 España: Marketing, Big Data, Inteligencia Artificial y Ventas.

Ponte en contacto con nosotros:

+34 916 629 534

madrid@agenciab12.com

Calle Alcalá, 21, 8ºD. 28014 - Madrid