Retos del 2024 para los equipos de desarrollo

A continuación, compartimos algunas tendencias tecnológicas para 2024 que destacan los expertos de Red Hat sobre el mundo de los DevOps:

Desarrollo nativo de la nube

  • Tema: Desarrollo nativo de la nube

Experto: Mark Swinson, enterprise automation specialist, Red Hat: “La adopción de la nube pública ha significado un cambio de mentalidad. Se ha pasado del enfoque tradicional de gestión de la infraestructura de TI de construir, desplegar y gestionar, a un enfoque más nativo de la nube de configurar, construir, desplegar y retirar. En esencia, se trata de aplicar a la infraestructura un enfoque de ciclo de vida de desarrollo de software (SDLC, por sus siglas en inglés). Las organizaciones establecerán cada vez más comunidades de práctica para difundir estas formas más modernas de trabajar y adoptar el enfoque de plataforma como producto (o ingeniería de plataforma). Esto proporcionará una base estable y escalable, pero flexible y con capacidad de respuesta, para ofrecer funciones esenciales en todo el TI. También permite una evolución continua para adaptarse a las necesidades de la empresa. Se prevé una mayor adopción en el mundo on-premises, más conservador, gracias a las ventajas de una mayor resiliencia y repetibilidad”.

DevOps / Experiencia del desarrollador / Servicios de aplicaciones

  • Tema: Aplicar los principios de la Arquitectura Limpia a la Infraestructura: Un movimiento estratégico para construir una plataforma competitiva

Experto: Maarten Vandeperre, arquitecto especialista en soluciones, Servicios de aplicaciones: “Los sistemas heredados y las estructuras de equipo tradicionales pueden suponer barreras a la innovación y la flexibilidad dentro de una empresa. En un panorama informático en rápida evolución, tendencias como el desarrollo nativo de la nube y el potencial de la IA no solo requieren equipos flexibles, sino también capacidad de adaptación dentro de la organización. La importancia de la flexibilidad es evidente en escenarios como el paso de la adopción del 100% de la nube a modelos híbridos, lo que subraya la necesidad de una flexibilidad integrada en las estructuras de los equipos y las bases de código.

“Las decisiones precipitadas, como la selección de tecnología, suponen un riesgo, ya que Gartner destaca esta precipitación como uno de los fallos de DevOps. La tendencia emergente implica derribar muros entre los distintos equipos, promoviendo una sinergia en la que los desarrolladores se dediquen a tareas de infraestructura y los profesionales de operaciones posean conocimientos de codificación para obtener soluciones óptimas (para ello, tengo presente «DevOps is an illusion» como cita personal). Partiendo de una formación en desarrollo de software, la sinergia más beneficiosa implicaría que los equipos de infraestructura y operaciones adoptaran los principios de la arquitectura limpia, una especie de directriz de codificación. La arquitectura limpia consiste en trasladar toda la infraestructura y las dependencias a la capa externa de la base de código, dejando la lógica empresarial en el core.

“La sinergia y las mejores prácticas entre organizaciones pueden mejorar mucho el rendimiento. Se considera la posibilidad de incorporar principios de arquitectura limpia tanto a su base de código como a sus diseños de infraestructura. Esto no sólo fomenta la flexibilidad y la adaptabilidad para navegar por un panorama en constante evolución, sino que también permite retrasar decisiones críticas, como la selección del hipervisor y la tecnología de bases de datos, proporcionando un contexto más informado para la toma de decisiones. La adopción de una arquitectura limpia permite obtener una ventaja competitiva y proyectos preparados para el futuro”.

Productividad del desarrollador

  • Tema: Gestionar la carga cognitiva se convierte en la clave del éxito

Experto: Markus Eisele, developer strategist, Red Hat: “Hace diez años era más fácil abordar el panorama tecnológico. En la actualidad, la complejidad de los entornos de desarrollo ha aumentado exponencialmente, y existe una demanda incesante de las últimas y mejores aplicaciones y servicios. Los desarrolladores ya no son responsables sólo de implementar la lógica de negocio; sino de todo lo que es relevante para la aplicación –razón por la que existe una definición como «el desarrollador full-stack»–.

“Sin embargo, las configuraciones, las declaraciones, los frameworks y los diferentes lenguajes de programación –incluidos el service wiring y otros– consumen un porcentaje cada vez mayor del valioso tiempo de los desarrolladores y provocan lo que se denomina sobrecarga cognitiva en muchos equipos de ingeniería. Lo que realmente necesitan los desarrolladores para ser productivos es una serie de metodologías y tecnologías aprobadas, una colección seleccionada de productos y procesos que se puedan mezclar y combinar para el caso de uso que tengan delante.

“Las organizaciones intentan conseguirlo de diversas maneras, como a través de sitios de intranet y sistemas basados en documentación. Ambos pasos iniciales son adecuados, pero las plataformas internas para desarrolladores y herramientas como Backstage –un marco de código abierto para crear portales de desarrolladores, creado originalmente por Spotify– llevan el concepto al siguiente nivel al proporcionar complementos de infraestructura y componentes de software específicos, así como catálogos que ofrecen una visión general de todo lo que está a disposición de los desarrolladores. Estos knowledge lakes pasan de ser portales a un espacio completo de soluciones enriquecido con el conjunto adecuado de tecnologías y, en última instancia, a plataformas internas de desarrolladores (IDP, por sus siglas en inglés)”.

Automatización

  • Tema: Fomentar la automatización para dar soporte a la IA mediante Policy as Code

Experto: Richard Henshall, director of product management for Ansible, Red Hat: “Con la creciente adopción de la IA en una amplia variedad de sistemas y herramientas de gestión, su capacidad para mejorar la escalabilidad se ha convertido en un factor clave. Sin embargo, para aprovechar al máximo el potencial de la IA, es necesario contar con controles y compliance automatizados. De lo contrario, la falta de estos elementos puede limitar la posibilidad de escalabilidad que la IA puede proporcionar. Policy as Code, que es un enfoque para la gestión de políticas que se basa en definir, actualizar, compartir y hacer cumplir las normas mediante código, es esencial, desde el día 0 hasta el día 2, para todas las actividades de infraestructura y operaciones, y no se trata sólo de poner la capacidad a disposición.

“Se trata de proporcionar una capacidad Policy as Code integrada, fácil de usar y de distribuir, incorporada en toda nuestra automatización, para actividades de Linux, network, nube, edge y plataformas de desarrollo de aplicaciones. A medida que la inteligencia artificial se utiliza cada vez más en diferentes ámbitos, nos encontramos con desafíos que van más allá de lo que los humanos pueden controlar y gestionar. Para aprovechar al máximo las ventajas de la IA, necesitamos implementar Policy as Code para lograr eficiencias en la gestión impulsada por IA, pero también asegurarnos de que se cumplan los requisitos de control y cumplimiento necesarios”.

Inteligencia Artificial (IA)

  • Tema: El auge de la nube híbrida en la IA: una prioridad estratégica para 2024

Experta: Erica Langhi, senior solution architect, EMEA, Red Hat: “A medida que se termina 2023, la integración estratégica de soluciones de nube híbrida en iniciativas de IA se perfila como una tendencia clave. Las organizaciones reconocerán la necesidad imprescindible de aprovechar tanto los recursos on-premise como los de la nube para obtener el máximo valor de sus iniciativas de IA. Esta tendencia está impulsada por la necesidad de encontrar un equilibrio entre la seguridad y la soberanía de los datos con la potencia de cálculo que necesitan los sofisticados modelos de la IA. Los responsables de la toma de decisiones optarán cada vez más por enfoques de nube híbrida que permitan una colaboración sin fisuras, agilidad y gestión del ciclo de vida, superando así los inconvenientes que históricamente han obstaculizado los proyectos de IA. Las empresas de éxito darán prioridad a plataformas que faciliten la integración de datos comunes disponibles y datos privados, posicionando a la nube híbrida como pieza clave del avance y la innovación de la IA en el próximo año”.

  • Tema: Abordando los desafíos éticos y los sesgos

Experta: Erica Langhi, senior solution architect, EMEA, Red Hat: “A medida que avancemos a lo largo de 2024, la adopción de la inteligencia artificial (IA) alcanzará nuevas dimensiones, transformando sectores y reconfigurando el panorama empresarial. Una tendencia destacada en el horizonte implica una mayor atención a las consideraciones éticas y la mitigación de sesgos en las aplicaciones de IA. Las organizaciones darán cada vez más prioridad a la transparencia y el compromiso en sus modelos de IA, abordando las preocupaciones en torno al sesgo de los datos y la discriminación.

“Se espera un aumento de las iniciativas destinadas a fomentar prácticas éticas de IA, impulsadas no sólo por la regulación, sino también por la creciente concienciación social sobre las posibles implicaciones de los algoritmos que tienen sesgo. La explicabilidad de los modelos también desempeñará un papel importante, a medida que avancemos hacia una IA más sofisticada. La capacidad de comprender nuestras creaciones de IA y garantizar su imparcialidad es fundamental, y la explicabilidad y la parcialidad están profundamente conectadas. Las empresas que participan activamente en la comunidad de código abierto para compartir las mejores prácticas y colaborar en estándares éticos de la IA probablemente obtendrán una ventaja competitiva en este panorama en evolución”.

 Ciclo de vida del modelo AI/ML y recopilación de datos

  • Tema: Ciclo de vida del modelo AI/ML y recopilación de datos en una plataforma segura

Experto: Maarten Vandeperre, specialist solution architect, Application Services: “A la luz de la inminente aplicación de la Ley de la Inteligencia Artificial (UE), se hace cada vez más relevante la seguridad, la transparencia de datos y la protección de datos. Si bien el enfoque inicial puede estar en modelos más grandes, se espera que los modelos más pequeños también estén sujetos a estas consideraciones en fases posteriores. En consecuencia, se espera que los científicos de datos ya no desarrollen modelos de ML en sus máquinas locales. Teniendo en cuenta estas consideraciones, Red Hat OpenShift AI ofrece una solución integral para hacer frente a estos desafíos, ayudando a minimizar la necesidad de refactorización organizativa o alteraciones de procesos tras la aplicación de la Ley de la IA u otras regulaciones pertinentes relativas a la formación y despliegue de modelos de ML.

“Red Hat OpenShift AI, junto con OpenShift y OpenShift application foundations, surge como una solución viable para establecer una plataforma API segura para la recopilación de datos (por ejemplo, desarrollo e implementación de aplicaciones) y un entorno con seguridad coherente para el entrenamiento de modelos ML, lo que ayuda a salvaguardar todo el ciclo de vida. Esta solución es aplicable tanto en on-premise como en la nube pública, lo que facilita la capacidad de entrenar, desplegar y supervisar modelos en un entorno local, una característica crítica para el manejo de datos altamente sensibles como la información sanitaria y financiera.

“Finalmente, es necesario proteger tanto los datos como los modelos entrenados con esos datos, sobre todo cuando se trata de datos muy sensibles, ya que el acceso no autorizado o los prompts maliciosos (por ejemplo, jailbreak) podrían poner en peligro la confidencialidad de la información utilizada para el entrenamiento del modelo”.

Sostenibilidad

  • Tema: Sostenibilidad

Experto: Rimma Iontel, chief architect, Telecommunications, Media and Entertainment, Red Hat: “En 2024, la sostenibilidad seguirá siendo prioritaria en todos los sectores, y el director de seguridad (CSO) o equivalente tendrá que cumplir los indicadores clave de rendimiento (KPI) específicos del sector. En el sector de las TIC, la atención se centrará en la eficiencia y la reducción del consumo de energía.

“Es probable que veamos herramientas o funciones dentro de los entornos de desarrollo y kits de desarrollo de software (SDK) existentes que permitan a los desarrolladores evaluar la eficiencia energética y el coste de carbono de su código. Podríamos ver un complemento asistido por IA que permita refactorizar el código en lenguajes más eficientes.

“En el caso de los despliegues de nubes híbridas y multicloud, veremos cómo se dedican muchos más esfuerzos a capturar métricas relacionadas con la energía y las emisiones. Esto incluye herramientas y modelos para estimar la energía y las emisiones asociadas a los despliegues de nubes públicas y mediciones de los despliegues on-premise con dashboards asociados. Esto se verá facilitado por herramientas como Kepler (Kubernetes-based Efficient Power Level Exporter), un proyecto de código abierto que captura las métricas de uso de energía en una amplia gama de plataformas. Los datos de medición y los modelos de IA formados a partir de esos datos también permitirán una mejor programación, reprogramación y escalado automatizados de las cargas de trabajo, centrándose más en la reducción y la inactividad de los recursos no utilizados, tanto físicos como virtualizados.

“En el sector telco, en concreto, veremos modelos de medición y de IA para automatizar la colocación y configuración de los componentes de la red con el fin de optimizar la eficiencia energética. En la RAN se aplicarán modelos de IA para permitir un control más dinámico de las frecuencias, sectores, células y estaciones base que vaya más allá de la simple preconfiguración horaria.

“Para aumentar su fiabilidad a escala y mejorar al mismo tiempo su huella de carbono neta, los proveedores de servicios también tratarán de automatizar la medición y el control de su consumo de energía y refrigeración utilizando mecanismos innovadores de hardware, software e IA, especialmente en la RAN, pero también en sus despliegues de core y centro de datos”.

 

 

 

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *