TEC

Cómo el Machine Learning convierte los datos en información valiosa

Swami Sivasubramanian, Vicepresidente de Machine Learning de AWS, durante su participación en AWS re:Invent 2022, señaló que a diferencia del cerebro y su gran complejidad, la data que generamos no está centralizada en un solo lugar, no se procesa ni se almacena de forma automática. Se necesita un trabajo de análisis, limpieza, selección y almacenamiento para hacer que esta información sea relevante. Los datos son el génesis para la invención moderna y es necesario crear una estrategia para ello.

Los elementos principales para una planificación basada en los datos son: crear bases preparadas para el futuro apoyada por servicios de data, crear un tejido conectado a través de la organización y democratización de la información.

Por ello, AWS presentó 5 nuevos lanzamientos de sus herramientas de Machine Learning:

Amazon Athena para Apache Spark. Amazon Athena es una solución que permite a los usuarios interactuar con los datos en unos pocos pasos, cargar información mediante conectores y realizar consultas mediante el estándar ANSI SQL. Con el tiempo, varios sectores, como los servicios financieros, la salud y el comercio minorista han necesitado ejecutar análisis más complejos para una variedad de formatos y tamaños de información. Por ello, las compañías adoptaron Apache Spark, pero construir la infraestructura para ejecutar esta plataforma no es sencilla. Los clientes tienen que aprovisionar, configurar y mantener la infraestructura sobre las aplicaciones, además de contar con los ajustes óptimos para evitar arranques lentos y costes de inactividad. Por ello, AWS anunció Amazon Athena para Apache Spark. Con esta función, se pueden ejecutar cargas de trabajo de Apache Spark para realizar el procesamiento de datos en Athena. Además de interactuar mediante programación con las aplicaciones de Spark utilizando las API de Athena. A esto se le suma el inicio de menos de un segundo de Apache Spark sin tener que aprovisionar manualmente la infraestructura.

Amazon DocumentDB Elastic Clusters.  Amazon DocumentDB es un servicio de base de datos escalable, altamente duradero y totalmente administrado para operar cargas de trabajo JSON de misión crítica. AWS anunció Amazon DocumentDB Elastic Clusters, que permite a los clientes escalar elásticamente su base de datos de documentos para manejar prácticamente cualquier número de escrituras y lecturas, con petabytes de capacidad de almacenamiento. Además administra automáticamente la infraestructura subyacente y elimina la necesidad de crear, eliminar, actualizar o escalar instancias.

Amazon SageMaker y modelos ML con Data Geoespacial. En el día a día, las personas utilizan mapas en sus aplicativos para encontrar las rutas más eficientes para llegar al trabajo, buscar un restaurante o pasear. Esta información se logra a través de datos geoespaciales. Si uno desea utilizar ML para hacer predicciones de esta información, se encuentra con muchos retos como conseguir múltiples datos de varios proveedores, el alto costo y el tiempo. Por ello, AWS lanza nuevas capacidades geoespaciales de Amazon SageMaker para facilitar la creación, el entrenamiento y la implementación de modelos de ML con redes neuronales profundas para un fácil acceso y preparación de grandes conjuntos de datos geoespaciales. Gracias a esto se pueden realizar predicciones sobre grandes desastres naturales como inundaciones y tomar las decisiones adecuadas para salvar miles de vidas en poco tiempo y a un menor costo.

Amazon Redshift Multi-AZ.  Para aquellos clientes que requieren los niveles más altos de disponibilidad y resistencia a los fallos, AWS presenta la disponibilidad de su servicio de almacén de datos a gran escala con múltiples zonas de disponibilidad con Amazon Redshift Multi-AZ. Esto permitirá aumentar la fiabilidad haciendo copias de seguridad automáticas de los clústeres en caso de fallos críticos y permite que las cargas de trabajo se trasladen a otros clústeres sin que las aplicaciones lo noten. Con Multi-AZ, los clústeres se despliegan en varias zonas de disponibilidad simultáneamente y se siguen gestionando como un único almacén de datos con un punto final. Si ocurre un fallo en alguna zona, se puede trasladar a otra rápidamente sin ninguna intervención del usuario. No es necesario realizar ningún cambio en la aplicación para mantener la continuidad del negocio durante las interrupciones imprevistas.

AWS Glue Data Quality. Este es un nuevo conjunto de características para AWS Glue que puede analizar automáticamente los datos, recopilar estadísticas y recomendar un conjunto de reglas automáticamente en función de lo que encuentre. Se pueden ajustar estas reglas o inclusive escribir unas nuevas. Cada regla de calidad de datos hace referencia a una tabla o alguna columna y comprueba propiedades específicas. Si la calidad de los datos cae debajo de ciertos umbrales, el cliente recibirá una alerta para que tome las medidas pertinentes.

Utilizando el Machine Learning para una mejor vida:

Expedia Group es una de las compañías de viaje más grandes del mundo que ha recabado décadas de datos de patrones de compra, reservas, preferencias de viaje y necesidades de sus clientes. Como una empresa centrada en los datos, Expedia Group utiliza la tecnología de AWS para generar 600 mil millones de predicciones al año, más de 70 petabytes de data, además de usar la Inteligencia Artificial (IA) y Machine Learning para generar más de 360 mil permutaciones por página, mostrándole la información más relevante al usuario en sus búsquedas.

La compañía utiliza Amazon EKS, Amazon DynamoDB y Amazon SageMaker para modernizar su infraestructura y administrar su plataforma de conversación entre otros. Entre las funciones que han implementado en su plataforma se encuentra la predicción de precios para viajes y la compra inteligente para buscar los mejores hoteles. Gracias a AWS, Expedia Group puede ofrecer experiencias únicas de viajes a sus clientes, que crean momentos inolvidables junto a sus seres amados.

AstraZeneca, una de las mayores empresas farmacéuticas del mundo, utiliza data, analítica, ML e IA para crear medicinas que cambian la vida de las personas. Por ejemplo, crean medicamentos para luchar contra el cáncer, problemas del corazón o enfermedades al pulmón. Cada persona cuenta con 3 millones de pares base en su ADN y analizar cada conjunto del genoma humano permite a AstraZeneca crear nuevos tratamientos.

Gracias a AWS, la farmacéutica ha logrado mover 25 petabytes de datos para procesar el genoma humano. Entre los servicios de AWS que utilizan se encuentra AWS Step Functions, AWS Lambda, AWS Batch y Amazon S3 lo que le permite correr más de 110 mil millones de pruebas estadísticas en menos de 30 horas. Con Amazon SageMaker y AWS Service Catalog la compañía ha creado cientos de proyectos de ML. De esta forma, AstraZeneca crea medicinas que permiten a las personas contar con más tiempo al lado de sus seres queridos.

Para cerrar su participación, Swami Sivasubramanian expresó que “son los individuos que en última instancia crean las chispas de la innovación, pero está dentro de las posibilidades de los líderes el empoderarlos con una cultura de datos para llegar allí. Ahora, vayan a crear la próxima gran invención”.


La presente nota ha sido elaborada gracias a la información enviada mediante nota de prensa de la oficina de prensa del Amazon Web Service a través de su agencia Fast Up.  Fuente: https://aws.amazon.com/  al publicarse no se ha recibido pago alguno. Puedes seguirnos en nuestras redes. No te pierdas Viernes Informal por Instagram, nuestro podcast LinkedIn Con Cola  y Café con Noticias por Spotify.

Deja un comentario

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Salir /  Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Salir /  Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Salir /  Cambiar )

Conectando a %s

A %d blogueros les gusta esto: