Teradata fait le pari d'une strat�gie IA en local

Pour Daniel Spurling, vice-président senior produits chez Teradata, AI Factory facilite l’exécution de projets IA exigeants en local, tout en préservant les ressources critiques et la maitrise des données. (Crédit photo: Teradata)

Pour Daniel Spurling, vice-pr�sident senior produits chez Teradata, AI Factory facilite l�ex�cution de projets IA exigeants en local, tout en pr�servant les ressources critiques et la maitrise des donn�es. (Cr�dit photo: Teradata)

Pour aider les entreprises � d�velopper et g�rer leurs projets d'IA directement sur site, sans recourir au cloud, Teradata lance AI Factory.

Ex�cuter des charges de travail IA en local s'accompagne souvent de d�fis techniques et organisationnels : surcharge des infrastructures partag�es, architectures hybrides complexes ou co�ts impr�visibles. Pour simplifier ces d�ploiements, Teradata regroupe d�sormais plusieurs de ses outils existants dans une offre unifi�e baptis�e�AI Factory,�con�ue pour que les data scientists puissent�d�velopper et op�rer des projets IA sur site, en toute autonomie.

� De nombreux d�partements IT utilisent d�j� � plein leur syst�me Teradata pour des traitements critiques, et ne souhaitent pas voir ces ressources monopolis�es par des exp�rimentations IA �, explique�Daniel Spurling, vice-pr�sident senior en charge des produits chez le sp�cialiste du datawarehouse. Jusqu'ici, les entreprises devaient recourir � une architecture hybride combinant les ressources on-premise avec�VantageCloud�pour isoler les environnements. Avec AI Factory, cette s�paration devient native, rendant possible�le d�ploiement des charges IA les plus lourdes directement sur site, tout en assurant un meilleur contr�le des co�ts et de la ma�trise des donn�es, souligne le dirigeant.

Un environnement complet pour les data scientists

Propos�e pour la premi�re fois sous forme d'une stack int�gr�e et cl� en main,�AI Factory�regroupe le moteur de base de donn�es de Teradata, la suite�AI Workbench�(incluant�ClearScape Analytics,�ModelOps,�JupyterHub, des outils d'analyse embarqu�e IA/ML, un�Enterprise Vector Store�et le support du format�Open Table) ainsi qu'un ensemble de�microservices IA�(RAG, embeddings, reranking, garde-fous...). Selon�Michael Ni, analyste chez�Constellation Research, cette combinaison donne aux entreprises les moyens de �faire �voluer leurs projets IA avec une solution coh�rente, int�grant nativement�la�gouvernance, la tra�abilit�, la performance et la conformit�. � Ce qui ressort, c'est l'int�gration des pipelines LLM, de la recherche vectorielle et de ModelOps dans une plateforme cl� en main, couvrant tout le cycle de vie de l'IA, de l'exp�rimentation � la production �, souligne-t-il.

La solution se veut �galement adapt� aux �quipes techniques, avec une exp�rience famili�re. � L'environnement inclut des outils �prouv�s comme JupyterHub et ModelOps, bien connus des �quipes data, ce qui �vite de ralentir les projets dans des goulots d'�tranglement li�s � la configuration ou � la conformit� �, commente Robert Kramer, analyste principal chez Moor Insights & Strategy. Il met aussi en avant le mod�le de tarification pr�visible, pens� pour �viter les mauvaises surprises souvent associ�es aux ressources cloud.

Une r�ponse aux exigences r�glementaires

Si le co�t et le contr�le restent des leviers importants pour internaliser l'IA,�la pression r�glementaire�p�se �galement dans la balance. � Entre la mont�e des exigences sur la confidentialit�, les inqui�tudes li�es � la souverainet� des donn�es et les co�ts al�atoires du cloud, les entreprises reconsid�rent s�rieusement ce qui doit rester local �, constate Robert Kramer. Cette r�flexion concerne en particulier les secteurs�de la�sant�, des finances ou public, o� la sensibilit� des donn�es impose des restrictions fortes.

Face � la concurrence d'acteurs comme�IBM, Dell ou HPE, �galement pr�sents sur le cr�neau de l'IA on-premise,�l'�diteur�mise sur l'int�gration native avec ses syst�mes analytiques d�j� en place�chez ses clients. � L'avantage ici, c'est qu'il n'est pas n�cessaire de repartir de z�ro ou de r�-architecturer enti�rement les syst�mes existants �, observe Robert Kramer.

Un partenariat technologique avec Nvidia

AI Factory b�n�ficie aussi d'une�int�gration valid�e avec l'�cosyst�me Nvidia, via le programme�Nvidia Enterprise AI Factory Validated Design. Celui-ci combine les GPU�Blackwell, les logiciels�AI Enterprise�et les solutions r�seau du fournisseur.� � Nvidia fournit la puissance de calcul, Teradata apporte la plateforme analytique d'entreprise �, r�sume Michael Ni. Gr�ce � cette int�gration, les entreprises ont la possibilit� de g�rer�localement des charges lourdes comme�l'entra�nement ou l'inf�rence de mod�les IA, tout en �vitant de recourir � des GPU cloud co�teux et moins pr�visibles.�



s'abonner
aux newsletters

suivez-nous

Publicit�

Derniers Dossiers

Cybersécurité, le double visage de l'IA

Cybers�curit�, le double visage de l'IA

En cybers�curit�, l'IA joue un double r�le : le gentil en aidant � d�tecter et � pr�venir les menaces, � automatiser les processus de s�curit�, � simuler et anticiper les...

Publicit�
OSZAR »