KI: HPE bietet Greenlake für das abgeschottete Trainieren von Large Language Models an
Die As-a-Service-Plattform Greenlake von Hewlett Packard Enterprise wird es bald auch für KI-Anwendungen geben. Das kündigte der Hersteller im Rahmen der Hausmesse HPE Discover in Las Vegas an.
Greenlake for Large Language Models (LLMs) soll es Kunden ermöglichen, eine künstliche Intelligenz in einem abgeschotteten Umfeld zu trainieren. Unternehmen sollen sich keine Sorgen machen müssen, dass sie beim Training einer KI Daten verlieren.
Hier und da passierte das in der Vergangenheit, als zahlreiche Unternehmen anfingen, mit KI-System zu experimentieren und diese mit teils vertraulichen Daten fütterten.
Unterstützt wird HPE durch das deutsche Start-up Aleph Alpha (Luminous), dass LLMs bereitstellt, die für die Analyse sowie Verarbeitung von Text- und Bilddaten vorgesehen ist. Später will HPE noch LLMs für andere Anwendungszwecke wie etwa Klimamodelle, Gesundheitswesen oder Verkehr auf den Markt bringen.
Die LLM-Services wird HPE auf den eigenen Supercomputern anbieten, wie das Unternehmen mitteilt. Zum Einsatz kommen HPEs Proliant-Server der 11. Generation, genauer die DL320 und DL380a. Die beiden Server wurden für KI-Anwendungen angepasst und arbeiten mit einer GPU-Beschleunigung.
Bis zum Einsatz wird es aber insbesondere in Europa länger dauern. Zwar nimmt HPE bereits Bestellungen für Greenlake for LLMs entgegen, doch zunächst werden nur Kunden in Nordamerika bedient. Für Europa erwartet HPE eine Verfügbarkeit zum Anfang des Jahres 2024.
HPE verspricht zudem, dass Greenlake for LLMs zu 99,5 Prozent mit erneuerbaren Energien versorgt werden soll. Damit versucht das Unternehmen Befürchtungen abzudämpfen, dass die Leistungsaufnahme von KI-Anwendungen sehr hoch ist. Möglich wird das durch eine Co-Location der Server beim Anbieter QScale in Quebex, Kanada.
Quelle(n)
HPE Presseaussendung