Arya.ai hat seine APEX MCP-Client- und Serveranwendungen gestartet, eine bahnbrechende Orchestrierungsschicht, mit der große Sprachmodelle in überprüfbare Domänenexperten umgewandelt werden sollen. Das Unternehmen kündigte den Start am 12. Mai 2025 in Mumbai, Indien und New York an.
Die Einführung dieser Anwendungen befasst sich mit einem gemeinsamen Problem mit Großsprachenmodellen (LLMs): Halluzinationen, Inkonsistenz und schlechte Zuverlässigkeit bei domänenspezifischen Aufgaben. Die Lösung von Arya.ai umfasst eine modulare Schicht vorgebliebener Anwendungen, die das Domänenwissen um jedes LLM wickeln, was sie vertrauenswürdiger macht.
„In seinem Kern wird MCP als Orchestrierungsmotor angepasst, die den Domänenkontext, reduzierte Halluzinationen und Präzision für genaiorientierte Anwendungen bringt“, sagte Deekshith Marla, Gründerin von Arya.ai. „Es geht nicht nur darum, intelligenter zu sein – es geht darum, aus einer Grundlage verifizierter, validiertes Fachwissen zu gewinnen.“
Die MCP-fähige Apex-Plattform von Arya.ai verfügt über über 100 vorgefertigte KI-Module, die die grundlegende LLM stärken. Diese Module ermöglichen es den Teams, Workflows in verschiedenen Bereichen wie Finanzen, Compliance, Privatsphäre und Kundenerfahrung zu komponieren. Jedes Modul ist für nuancierte domänenspezifische Aufgaben wie die Analyse von Abschlüssen, Kreditbewertung und Erkennung von Dokumentenbetrug ausgelegt.
Die Module können über einen durchsuchbaren Katalog entdeckt werden, der über JSON-RPC aufgerufen und über die No-Code-Benutzeroberfläche von Apex miteinander verkettet wurde. Der MCP-Server übernimmt die Erkennung, Ausführung und Protokollierung der Modul-Modul, während der MCP-Client die Vorverarbeitung und die LLM-Integration orchestriert.
Die Plattform ist LLM-Agnostic und bietet Unternehmen die volle Flexibilität. Zu den wichtigsten Funktionen gehören:
- Audit-fähige KI: Jedes Modulanruf, eine Eingabeaufforderung und LLM -Antwort wird protokolliert, um Rückverfolgbarkeit und Einhaltung der Einhaltung zu gewährleisten.
- Zero Rewrite Integration: Fügen Sie Module hinzu oder tauschen Sie die Anwendungslogik aus.
- Skalierbare Komposition: Erstellen Sie leistungsstarke KI -Workflows, indem Sie Module wie „PII -Redaktion → Stimmungsanalyse → Executive Summary“ in einem Fluss verketten.
Die Anwendungsfälle für Unternehmen umfassen Banken, die Transaktionsdokumente analysieren, das Risiko bewerten und Berichte generieren, ohne dass mehrere Anwendungen wechseln. RegTech -Unternehmen können Compliance -Workflows mit vollständigen Prüfungsspuren automatisieren, während Kundenerfahrungsteams Erkenntnisse aus Feedback extrahieren und Support -Probleme klassifizieren können.
Arya.ai bietet einen frühen Zugriff auf seine Apex + MCP -Sandbox an, mit der Unternehmen mit Modulketten, LLM -Konfiguration und Orchestrierung über eine visuelle Benutzeroberfläche experimentieren können. Die Plattform ermöglicht es den Teams, mit ihren eigenen Daten mit vollständigen Steuerung und Rückverfolgbarkeit die Domänenverkleidungs-KI-Workflows zu erstellen und zu testen.
Um mehr zu erfahren oder eine Demo anzufordern, besuchen Sie https://arya.ai oder Kontakt [email protected].