Estoy buscando a alguien que me ayude con un ejercicio de big data.
El tema/problema específico con el que necesito ayuda son los marcos de procesamiento de big data. Prefiero utilizar Hadoop como software o herramienta para esta tarea. El plazo para esta tarea es para hoy.
Habilidades y experiencia ideales:
- Competencia en marcos de procesamiento de big data, particularmente Hadoop.
- Fuerte comprensión de los conceptos y técnicas de big data.
- Capacidad para analizar y procesar grandes conjuntos de datos de manera eficiente.
- La familiaridad con otros marcos de procesamiento de big data, como Spark, es una ventaja.
Ejercicio:
Realice análisis de datos simples utilizando Hadoop Hive basado en la arquitectura distribuida de Shopify (inventatela).
Para hacer esto, primero instale Hadoop Hive en una máquina virtual o en su computadora. (Nota: Aquí tienes una guía muy detallada con todos los pasos para instalarlo en tu ordenador:
https://www.tutorialspoint.com/es/hive/hive_installation.htm).
A continuación, busque un conjunto de datos falso que pueda servir para su caso de uso (por ejemplo, tablas de clientes o productos). Si no puede encontrar ninguna tabla fácilmente, le recomiendo que intente utilizar la versión gratuita de ChatGPT y le solicite que genere una tabla con datos ficticios para su caso de uso.
Una vez que la tengas, sube la tabla a Hive e intenta escribir una consulta en HQL para extraer información.
Por último, envíanos un pdf con capturas de pantalla de los pasos que has realizado con el máximo detalle.
Objetivo de la actividad: Adquirir experiencia práctica en el uso de Hadoop Hive para el análisis de datos.
Delivery term: December 14, 2023