Me especializo en la intersecci贸n entre Inteligencia Artificial, Data Engineering y Automatizaci贸n, dise帽ando sistemas que transforman datos en decisiones y modelos en soluciones productivas.
Trabajo con arquitecturas modernas basadas en:
- Contenedores y microservicios
- Bases de datos vectoriales
- Pipelines escalables en la nube
- Integraci贸n de LLMs en entornos productivos
Estos son algunos de mis proyectos:
-
N8N con Base de Datos Vectorial y OpenAI
Este proyecto implementa un entorno聽n8n聽en Docker para automatizar flujos de trabajo de IA con聽OpenAI聽y聽Supabase聽como base de datos vectorial. Incluye: – Contenedor n8n con PostgreSQL como base de datos. – Workflows para聽traer datos desde una BD vectorial聽y聽agregar embeddings a una BD vectorial.
-
Pipeline de Datos SEO con Python, Google Search Console y Google Analytics
Implementaci贸n de un pipeline automatizado para monitoreo SEO y performance, centralizando datos hist贸ricos en BigQuery y habilitando dashboards confiables para equipos de Marketing y Producto.
-
Pipeline de Datos en AWS con Airflow y dbt
Implementaci贸n de un data pipeline escalable con almacenamiento en AWS S3 y carga en PostgreSQL (RDS). Desarrollo de un flujo ETL end-to-end para la ingesta, transformaci贸n y almacenamiento de datos. Incluye integraci贸n de m煤ltiples fuentes (CSV, JSON, API), procesamiento con dbt y orquestaci贸n con Airflow en contenedores Docker.
-
N8N con Base de Datos Vectorial y OpenAI
Este proyecto implementa un entorno聽n8n聽en Docker para automatizar flujos de trabajo de IA con聽OpenAI聽y聽Supabase聽como base de datos vectorial. Incluye: – Contenedor n8n con PostgreSQL como base de datos. – Workflows para聽traer datos desde una BD vectorial聽y聽agregar embeddings a una BD vectorial.
-
Pipeline de Datos SEO con Python, Google Search Console y Google Analytics
Implementaci贸n de un pipeline automatizado para monitoreo SEO y performance, centralizando datos hist贸ricos en BigQuery y habilitando dashboards confiables para equipos de Marketing y Producto.
-
Pipeline de Datos en AWS con Airflow y dbt
Implementaci贸n de un data pipeline escalable con almacenamiento en AWS S3 y carga en PostgreSQL (RDS). Desarrollo de un flujo ETL end-to-end para la ingesta, transformaci贸n y almacenamiento de datos. Incluye integraci贸n de m煤ltiples fuentes (CSV, JSON, API), procesamiento con dbt y orquestaci贸n con Airflow en contenedores Docker.


