El procesado del data streaming: la gran ventaja competitiva para las empresas en un entorno digital

Las empresas buscan incansablemente una ventaja competitiva que les permita ser más eficientes, ganar clientes, servirlos mejor y tener más beneficios. En muchas ocasiones esto parece más un arte que una ciencia, estar en el momento indicado en el lugar preciso. Pero en un mundo centrado cada vez más en el intercambio de datos, el mercado ofrece algunas soluciones que son una ventaja directa para las compañías que deciden hacer uso de ellas.

ES EL caso de la tecnología del procesado del data streaming en lugar del tradicional procesado por lotes. Si disminuir el tiempo de espera no es una prioridad, este último puede ser una buena solución. Sin embargo, son cada vez más los sectores que exigen una actualización casi al instante de los datos. Actualizar los datos en tiempo real puede significar la captura de más clientes y la fidelización de los mismos.

Y, además de velocidad, los negocios necesitan darle un sentido a los datos que procesan, es decir, interpretar la información. Esta es precisamente una de las bases de los modelos de inteligencia artificial como ChatGPT. Los modelos más antiguos de inteligencia artificial aprenden de datos estáticos, pero los nuevos modelos integran la capacidad de aprender con datos dinámicos: aprenden y generan respuestas dinámicas. La integración de estos modelos en los negocios actuales supone un reto de almacenamiento y procesamiento.

Es por ello que muchas empresas eligen Apache Kafka y Flink para acomodar las múltiples posibilidades de la inteligencia artificial. Apache Kafka es una plataforma de data streaming distribuida que se utiliza para crear aplicaciones de transmisión y pipelines de datos en tiempo real y se ha convertido en una tecnología clave para manejar arquitecturas basadas en eventos. Apache Flink, por otro lado, es un framework de procesamiento en tiempo real de código abierto y un motor de procesamiento distribuido.

Tomemos, por ejemplo, dos negocios de retail que utilizan recomendaciones generadas por inteligencia artificial. Ambos usan las predicciones meteorológicas para ofrecer productos acordes a sus clientes. Pero mientras el primero utiliza datos por lotes generados durante la noche, el otro utiliza datos que los principales meteorólogos del país actualizan constantemente.

Los visitantes del primer sitio web pueden recibir una recomendación para comprar un paraguas porque, hace 24 horas, los meteorólogos predijeron fuertes lluvias. El otro sitio web podría ofrecer una variedad de protectores solares a buen precio si, por ejemplo, un cambio nocturno en los patrones climáticos hace que vaya a hacer un sol radiante.

Estos retailers pueden además beneficiarse de este procesado de datos para evitar fraudes y problemas en las compras, lo que repercute en la experiencia del usuario. Ser capaz de identificar y bloquear una transacción fraudulenta en el punto de venta (ya sea en la tienda o en línea) ayuda a los retailers en su lucha contra los estafadores. Un procesado en data streaming permite establecer cada vez más controles con menor costo.

Se estima que en el mundo se realizan más de 2.000 millones de pagos digitales cada día. La simple gestión de esas transacciones es una tarea gigantesca. Intentar detectar y combatir el fraude entre los millones de pagos legítimos está en otro nivel. En esa tarea están precisamente centrados en el mundo de la banca tradicional y online.

Para los bancos, las compañías de tarjetas de crédito y otras instituciones financieras, poder detener el fraude segundos antes de que se complete una transacción ahorraría millones y ayudaría en cierta medida a mantener a los estafadores fuera del negocio.

Esto es mucho más complicado de lo que parece. Sobre todo porque, para los responsables de TI, millones de transacciones por segundo se traducen en miles de millones de «eventos», los cuales deben procesarse en tiempo real. Y esto sólo se puede hacer de forma eficaz utilizando una arquitectura basada en eventos, algo que ofrece de manera inigualable el procesamiento de data streaming.

Integrar el proceso de data streaming en un negocio es el paso lógico que abre un enorme abanico de posibilidades de crecimiento y de seguridad para los negocios que se basan en datos.

Por Rubén Terceño, director de Ingeniería de Sistemas de Confluent

«Los modelos más antiguos de IA aprenden de datos estáticos, pero los nuevos integran la capacidad de aprender con datos dinámicos y generar respuestas dinámicas. La integración de estos modelos en los negocios supone un reto de almacenamiento y procesamiento» (Rubén Terceño, Confluent)

 

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *