CategoríaBig Data

25 términos del Big Data básicos que debes conocer

Tiempo de lectura: 8 min
502

El arte de manejar gran cantidad de datos, los macrodatos, tiene nombre. Bien conocido por todos es el Big Data (aunque también se le puede llamar datos masivos o inteligencia de datos) que define esa masividad de información que corre por la Red.

También te puede interesar: Master en Big Data Online

Pero lo importante del Big Data  no es sólo que esta exista sino lo que se hace con todos estos datos y cómo se tratan. Muy importante es el saber qué hacen las organizaciones con tanta información, no hay duda de que es una herramienta muy importante de análisis con la que se puede mejorar en la toma de decisiones. Los expertos dicen que el tamaño del Big Data para ser definido como tal debe de ser conjuntos de datos que van desde 30 o 50 Terabytes a varios Petabytes.

Para entender esta ciencia de terabytes y petabytes, es necesario conocer sus términos más técnicos. En este post hemos recogido más de 25 conceptos de Big Data necesarios para comprender cómo se trabaja en el mundo de los datos.

Índice de contenidos

¿Qué es el Big Data?

Big data es un término en desarrollo que describe un gran volumen de datos estructurados, semiestructurados y no estructurados que tienen el potencial de ser extraídos para obtener información y usarse en proyectos de aprendizaje automático y otras aplicaciones de análisis avanzado.

Los datos grandes a menudo se caracterizan por las 3 V: el volumen extremo de datos, la gran variedad de tipos de datos y la velocidad a la que se deben procesar los datos. Esas características fueron identificadas por primera vez por el analista de Gartner, Doug Laney, en un informe publicado en 2001. Más recientemente, otras V se agregaron a las descripciones de big data, incluida la veracidad, el valor y la variabilidad. Si bien el big data no equivale a ningún volumen específico de datos, el término se usa a menudo para describir terabytes, petabytes e incluso exabytes en cantidad de datos capturados a lo largo del tiempo. Dichos datos voluminosos pueden provenir de innumerables fuentes diferentes, como sistemas de transacciones comerciales, bases de datos de clientes, registros médicos, registros de flujo de clics de Internet, aplicaciones móviles o redes sociales.

Infografía

Qué es Big Data

Descargar

Diccionario Big Data

Ahora que ya estás un poco más cerca de dar un paso más en la definición del Big Data, necesitas comprender algunos términos necesarios con los que trabajan cada día los científicos de datos, una profesión cada vez más demandada.

Algoritmo: se define como las instrucciones o reglas ordenadas que sirven para expresar aquello que se busca. En el Big Data, para ser más precisos, ayuda en la búsqueda de patrones y relaciones entre variables entre tanta cantidad de datos. Los algoritmos son pilares básicos y necesarios de las actividades digitales y tecnológicas de hoy en día. En los negocios es un elemento que ayuda a comprender el comportamiento de los clientes.

Analista de Datos: es la persona dedicada profesionalmente a analizar, con técnicas estadísticas, los datos de la empresa para la que trabaja. Este perfil especializado en Big Data maneja todos los datos y conoce bien toda su estructura para tomar las mejores decisiones y definir las mejores estrategias. Debe ser un perfil con amplios conocimientos en matemáticas, comunicación y estadísticas y dominar sistemas de análisis de datos masivos como el Machine Learning. Al trabajar con datos históricos de la organización, sus conocimientos hacen que detecte errores del pasado para que no se repitan en el futuro.

Analítica de negocio: es la forma en la que un negocio utiliza sus técnicas para obtener información a través de sus datos. Se suele hacer mediante análisis estadísticos.

Analítica predictiva La analítica predictiva es lo que hace el perfil anterior (analista de datos) con los datos históricos de la empresa. Como bien indica su nombre, es una ciencia que se utiliza para predecir lo que puede pasar en el negocio en base a esos datos históricos que utiliza técnicas como la del modelado predictivo basadas en algoritmos estadísticos y de aprendizaje automático. Esto ayuda a mejorar la planificación y los resultados.

Analytics: es la forma de capturar, procesar y analizar información para que se conviertan en insights.

Blaze: este término es importante en programación. Blaze es una interfaz para consultar datos en diferentes sistemas de almacenamiento. Se le conoce también como una librería de Python (lenguaje de programación) que ayuda a almacenar, describir, consultar y procesar datos. Se puede usar para acceder a datos de un gran número de fuentes como Bcolz, MongoDB, SQLAlchemy, Apache Spark, PyTables, etc.

Bokeh: Es una librería de Python que se usa para aplicaciones de rendimiento con datos en streaming y con la que se pueden crear gráficos interactivos en 3D y aplicaciones webb

Bosque aleatorio:  es un método de ensamblado que utiliza varios algoritmos de aprendizaje. Tal y como define Adobe, este método se utiliza para “obtener un rendimiento más predictivo que el que podría obtenerse de cualquier algoritmo de aprendizaje constituyente”. Este algoritmo de “Personalización automatizada es un método de clasificación o regresión que funciona creando una multitud de árboles de decisión durante el aprendizaje”.

Business Inteligence: es la forma con la que se trabajan todos los datos que puede manejar un negocio pero de forma inteligente. Es decir, no se trata sólo de manejar datos sino de trabajar a partir de la información que los datos aportan y aprovecharla para mejorar las estrategias de negocio. Si quieres formarte en este área de negocio no te pierdas el Curso en Big Data y Business Intelligence.

Ciencia de datos: son métodos científicos en los que se utilizan algoritmos, estadísticas, procesos, sistemas, ingeniería software para obtener conocimiento, resolver problemas analíticos y tener un mejor entendimiento de la información. Los científicos de datos extraen la información que se utilizará en los negocios para mejorar las estrategias.

Master Big Data Online

Aprende a estructurar los datos masivos que genera una empresa en la era digital

¡Formarme en Big Data!

Clase binaria: es una habilidad matemática que permite que los modelos de programación no lineal (el proceso para resolver sistemas de igualdades y desigualdades sujetas a varias restricciones) se resuelvan.

C++: es un lenguaje de programación que se diseñó a finales de los años 70 con el objetivo de extender al lenguaje de progrmación C mecanismos para la manipulación de objetos. En Machine Learning tiene librerías útiles como LibSVM, Shark o MLPack.

Deeplearning4j: es una biblioteca de programación de aprendizaje hecha para Java y Scala.

Data Lake: es el lago de datos en el que el profesional de la ciencia de datos se baña para conseguir todas las respuestas a las preguntas que ofrece el Big Data. Es el almacenamiento de toda la información en bruto recogida y que trabaja con una arquitectura plana.

Data Mining: la minería de datos. Este concepto se utiliza para nombrar las técnicas utilizadas para explorar las bases de datos.

Indicador lift: según define la unidad de datos de telefónica “Luca”, en la minería de datos y el aprendizaje automático este indicador de confianza  “compara la frecuencia de un patrón observado con la frecuencia en que podríamos ver ese mismo patrón por casualidad”. “Si el valor de «Lift» es próximo a 1, es muy posible que el patrón que hemos observado sea mera casualidad. Cuanto mayor sea este valor, más posibilidades hay de que el patrón sea real”

Lingüística computacional: en las ciencias de la computación, la lingüística computacional estudia el idioma hablado para convertirlo en datos estructurados mediante herramientas computacionales.

NoSQL: son sitemas de gestión de bases de datos y estructuras que permiten almacenar información cuando las bases de datos relacionales dan problemas.

Perl: es un lenguaje de scripting que se diseñó a finales de los años 80. Toma características del lenguaje C y de otros lenguajes de programación. “Perl se ha usado mucho para tareas de procesamiento de texto y de limpieza y depuración de datos”, informa Luca.

Python: es un lenguaje de programación multiparadigma que se utiliza en la ciencia de datos. Python se utiliza para denominar a las librerías especializadas en automatic learning y generación de gráficos.

Sentiment Analytics: el análisis de sentimientos o minería de opinión es el proceso automatizado de comprender una opinión sobre un tema dado del lenguaje escrito o hablado.

Small Datason los análisis de datos que se realizan sobre cantidades menores a las consideradas como Big Data.

SQL (Structured Query Language): el lenguaje de consulta estructurada es un lenguaje específico del dominio que, según informa Luca, “se basa en el uso del álgebra y cálculos relacionales para realizar consultas a las bases de datos de manera sencilla. Las consultas se realizan mediante un lenguaje de comandos que permite seleccionar, insertar, actualizar, averiguar la ubicación de los datos, y más”.

UIMA (Arquitectura de Gestión de Información Desestructurada): son los sistemas de software que se utilizan para entender la información no estructurada.

Weka: es una colección de algoritmos de aprendizaje automático para tareas de minería de datos. Contiene herramientas para la preparación de datos, clasificación, regresión, agrupación, extracción de reglas de asociación y visualización.

¿Quieres enfocarte profesionalmente en Big Data? No te pierdas nuestro Master en Big Data Online con el que aprenderás a utilizar las técnicas y herramientas más importantes para manejar grandes volúmenes de datos y, además, conocerás y sabrás aplicar todos los algoritmos de Machine Learning así como su uso a través de Redes Neuronales para su aplicación en entornos reales.

Master Big Data Online

Aprende a estructurar los datos masivos que genera una empresa en la era digital

¡Formarme en Big Data!

Patricia Galiana

Graduada en periodismo y con experiencia como freelance y colaboraciones en medios españoles y griegos.  Ahora trabaja con IEBS en el departamento de Marketing como periodista y agregando contenidos al... Leer más

11 comentarios en 25 términos del Big Data básicos que debes conocer

    1. Hola Elena, significa prueba de concepto y se realiza para minimizar riesgos. ¡Un saludo!

  1. Un excelente video para poder tener una prespectiva mas amplia del tema Big Data y mismo que te ayuda q tener un poco mas de ganas de seguir aprendiendo!
    mil gracias.

    1. Nos alegra que te haya gustado y sido útil Alexandro ¡Un saludo!

  2. Me ha encantado tu post, Patricia. En ocasiones resulta muy complicado entender esta amalgama de términos cuando no se es especialista en materia, pero con tus definiciones me ha quedado todo mucho más claro 🙂

    1. Muchas gracias Ale, nos alegra que te haya sido de ayuda ¡Un saludo!

  3. Muy interesante el artículo, ayuda a comprender un poco más el fenómeno del Big Data. Recientemente escuché también Big Cloud, es la manera de gestionar el big data a través de programas de la nube. Me parece interesante añadirlo al diccionario porque el futuro de los datos pasa por la nube.

    1. Ana Martín del Campo Fernández-Paniagua dice:

      Buenos días, María.

      Muchas gracias por tu comentario. Me alegra saber que te ha gustado.

      Un saludo.

Deja una respuesta

Síguenos en las redes