Die Akamai -Technologie startet Akamai Cloud Inferenz, einen neuen Cloud -Service, der die Effizienz von KI -Inferenzaufgaben verbessert. Es liefert einen verbesserten Durchsatz, eine reduzierte Latenz und niedrigere Kosten als die herkömmliche Hyperscale -Infrastruktur.
Akamai Cloud Inferenz läuft auf Akamai Cloud, der verteilten Plattform der Welt. Diese neue Technologie ist so konzipiert, dass sie die Einschränkungen zentraler Cloud -Modelle durch Verarbeitung von KI -Daten näher an Benutzer und Geräten angehen.
Adam Karon, Chief Operating Officer und General Manager der Cloud Technology Group bei Akamai, hob die Herausforderung, KI -Daten effizient zu verteilen. „Es ist schwierig, KI -Daten näher an Benutzer und Geräte zu bringen, und dort kämpfen die alten Wolken“, erklärte Karon.
Durch AI -Inferenz auf Akamai Cloud können Plattformingenieure und Entwickler AI -Anwendungen näher an Endbenutzern erstellen und ausführen. Diese neue Lösung bietet 3x besseren Durchsatz und bis zu 2,5x Reduktion der Latenz.
Die neuen Tools ermöglichen Unternehmen, bis zu 86% für KI -Inferenz- und Agenten -KI -Workloads im Vergleich zur herkömmlichen Hyperscaler -Infrastruktur zu sparen.
Zu den wichtigsten Merkmalen der Akamai -Cloud -Inferenz gehören:
- Berechnen: Die Akamai Cloud bietet vielseitige Berechnung Optionen wie CPUs für fein abgestimmte Inferenz, GPUs für beschleunigte Berechnung und ASIC-VPUs. Usw., um eine Vielzahl von AI -Inferenzherausforderungen zu bewältigen.
- Datenverwaltung: Akamai integriert sich in enorme Daten für den Echtzeit-Datenzugriff und bietet skalierbaren Objektspeicher für die Verwaltung von KI-Datensätzen. Das Unternehmen arbeitet auch mit Vector-Datenbankanbietern wie Aiven und Milvus zusammen, um die Erzeugung von Abrufen zu ermöglichen.
- Containerisierung: Akamai integriert die Containerisierung, um die Resilienz der Anwendung und die Tragbarkeit der Hybrid-/Multicloud -Form zu verbessern. Akamai liefert eine KI-Inferenz, die schneller, billiger und sicherer mit Kubernetes ist, unterstützt von Linode Kubernetes Engine (LKE) -Erprise. Der neue Dienst ermöglicht eine schnelle Bereitstellung von KI-readigen Plattformen, einschließlich Kserve, Kubeflow und Spinkube.
- Randberechnung: Akamai AI Inferenz beinhaltet die WASM -Funktionen (WebAssembly). Entwickler bauen AI-betriebene Anwendungen am Rande auf und ermöglichen latenzempfindlichen Lösungen.
Die skalierbare und verteilte Architektur der Akamai -Cloud ermöglicht es, Rechenressourcen global verfügbar zu sein – von Cloud bis Edge -, während die Anwendungsleistung und die Steigerung der Skalierbarkeit erhöht werden. Die Plattform erstreckt sich über 4.200 Präsenzpunkte in 1.200 Netzwerken in über 130 Ländern.
Polyedera machte gerade die ehrliche Geheimnisse von Ai öffentlich
Akasm enthüllt die Verschiebung von LLMs -Schulungen (Großsprachenmodelle) zu KI -Inferenz und betont die Notwendigkeit praktischer KI -Lösungen. LLMs sind für allgemeine Aufgaben wirksam, sind jedoch häufig mit hohen Kosten und zeitaufwändigen Anforderungen ausgestattet.
Anstatt stark in LLMs zu investieren, bewegen sich Unternehmen zu leichteren KI -Modellen. Diese sind für bestimmte Geschäftsprobleme optimiert und bieten heute eine bessere Kapitalrendite.
Akamai Cloud Inference unterstützt die Verarbeitung von KI -Daten näher an der Stelle, an der sie generiert werden, und löst die Anforderungen an verteiltere KI -Lösungen.
Akamis neues Angebot ist eine bemerkenswerte Bewegung in Richtung dezentraler KI und löst das klassische Cloud Computing -Rätsel der Entfernung. Warum? Denn reduzierte Latenz führt direkt zu realen, sofortigen Einsparungen und einer besseren Benutzererfahrung, was für Wettbewerber eine schwierige Kombination ist.
Eine besonders versierte Funktion ist die Betonung der Containerisierung, wodurch die Bereitstellung von AI -Anwendungen weitaus einfacher und sicherer bleibt als herkömmliche Setups. Die Verwendung von Linode Kubernetes Engine (LKE) -Ertum unterstreicht das Engagement von Akami, moderne, effiziente Tools anzubieten, die auf die heutigen technischen Herausforderungen zugeschnitten sind.