Der Prozess des Aufbaus von Ontologien – die strukturierten, miteinander verbundenen Kenntnisse, die alles von Suchmaschinen bis hin zu KI -Argumentation anführen – ist notorisch komplex. Es erfordert eine Mischung aus Domain -Expertise, logischer Strenge und einem fast philosophischen Verständnis, wie Konzepte zusammenhängen. Seit Jahren haben Ontologieingenieure mit der Herausforderung gerungen, abstrakte Wissen in strukturierte Daten zu verwandeln. Jetzt treten große Sprachmodelle (LLMs) in den Ring ein und behaupten, dass sie einen Großteil des schweren Hebens tun können.
Ein Team von Forschern, darunter Anna Sofia Lippolis, Mohammad Javad Saeedizade und Eva Blomqvist, haben diese Behauptung getestet. Ihre neuesten Studie Bewertet, ob KI-Modelle-O1-Vorbereitung von GPT-4 und LLAMA 3.1 von Meta-nutzbare Ontologien aus natürlichen Sprachbeschreibungen erzeugen können. Die Ergebnisse? Eine Mischung aus Versprechen, Fallstricken und philosophischen Fragen zur Rolle der KI bei der Repräsentation des Wissens.
Der AI-betriebene Ontologieingenieur
Traditionell hat sich die Ontologie -Schöpfung auf Methoden wie wie Methontologie Und Neondie Ingenieure durch einen komplizierten Prozess der Definition von Konzepten, Beziehungen und Einschränkungen führen. Aber auch für erfahrene Experten ist dieser Prozess zeitaufwändig und fehleranfällig. Die Forscher schlugen einen anderen Ansatz vor: Lassen Sie LLMs die Grundlage erzeugen und menschliche Experten die Ergebnisse verfeinern.
Ihre Studie führte zwei Einsprechungstechniken ein –Speicherloser CQBYCQ Und Ontogenia—Sesign, um KI bei der Erzeugung von Ontologien Schritt für Schritt zu helfen. Beide Methoden stützten sich auf die füttern strukturierte Eingabeaufforderungen basierend auf Kompetenzfragen (Abfragen, die eine Ontologie beantworten können) und Benutzergeschichten (reale Szenarien, die die Ontologie unterstützen sollte).
Anstatt KI zu zwingen, ganze Ontologien auf einmal zu verarbeiten – eine Aufgabe, die oft zu verwirrten, aufgeblähten Ausgaben führt -, brachen diese Ansätze den Prozess in modulare Schritte ab und führten LLMs durch logische Konstruktionen jeweils ein Stück.
Sensei: Die KI, die wie ein neugieriges Kind erforscht
Wie gut hat AI funktioniert?
Die Forscher testeten ihre Methoden auf einem Benchmark-Datensatz und verglichen die Ontologien von AI-generierten Ontologien mit den von Anfängern menschlichen Ingenieuren geschaffenen. Der herausragende Darsteller? Openais O1-Vorwandunter Verwendung der Ontogenia -Anlaufmethode. Es produzierte Ontologien, die nicht nur nutzbar waren, sondern in vielen Fällen die von menschlichen Anfängern hergestellten Menschen übertroffen haben.
Die Studie wurde jedoch auch hervorgehoben kritische Einschränkungen. Ai-generierte Ontologien hatten die Tendenz, redundante oder inkonsistente Elemente zu erzeugen-wie beider Definieren Beschäftigten Und Beschäftigungsstartdatum für dasselbe Konzept. Schlimmer noch, Modelle kämpften häufig mit den feineren Logikpunkten und erzeugen überlappende Domänen und falsche inverse Beziehungen. Insbesondere das LLAMA -Modell von Meta zeigte sich schlecht und produzierte verworrene Hierarchien und strukturelle Mängel, die seine Ontologien schwer zu bedienen machten.
Eine der größten Imbissbuden? Kontext ist wichtig. Als die LLMs gezwungen waren, mit zu vielen Informationen gleichzeitig zu arbeiten, litt ihre Leistung. Das Abschneiden ihrer Eingabe – daher die „erinnerungslose“ Strategie -, reduzierte irrelevante Ausgaben und verbesserte Kohärenz.
Sollten wir KI also das Ontology Engineering übernehmen lassen? Nicht ganz. Während LLMs den Entwurfsprozess beschleunigen können, bleibt die menschliche Intervention wesentlich. KI ist großartig darin, schnell strukturiertes Wissen zu produzieren, aber ihre Ausgaben brauchen immer noch Logische Verfeinerung Und Semantische Überprüfung– Erfordernis, die menschliche Aufsicht erfordern.
Die Forscher schlagen vor, dass die wahre Rolle der AI im Ontology Engineering die von a ist Kopilot eher als ein Ersatz. Anstatt Wissensgrafiken von Grund auf neu zu erstellen, kann LLMs helfen, strukturierte Entwürfe zu generieren, die menschliche Experten verfeinern können. Zukünftige Verbesserungen könnten sich auf die Integration konzentrieren Ontologie -Validierungsmechanismen Direkt in KI -Workflows, wodurch die Bedarf an manuellen Korrekturen verringert wird.
Mit anderen Worten, KI kann Helfen Sie mit, das Territorium abzubildenaber Menschen müssen immer noch müssen Überprüfen Sie die Wahrzeichen.
Die Studie wirft auch eine tiefere Frage zur Fähigkeit der KI auf, das Wissen zu verstehen. Kann ein Modell ontologische Beziehungen wirklich „erfassen“, oder spielt es lediglich ein fortgeschrittenes Spiel statistischer Musteranpassungen? Während sich die KI weiterentwickelt, ist die Grenze zwischen menschlicher Logik und maschinengeneriertem Denken verwischt-aber vorerst haben menschliche Ingenieure immer noch das letzte Wort.
LLMs können überraschend hochwertige Ontologieentwürfe erzeugen, aber ihre Ergebnisse bleiben inkonsistent und erfordern die Verfeinerung des Menschen. Wenn das Ziel ist EffizienzAi-unterstütztes Ontologie-Engineering ist bereits nützlich. Wenn das Ziel ist PerfektionEs ist noch ein langer Weg vor uns.
Ausgewähltes Bildnachweis: Kerem Gülen/Imageen 3