Eine neue Phase der Bemühungen der Trump -Verwaltung, den öffentlichen Dienst zu verkleinern, ist im Gange und konzentriert sich auf die Verwendung generativer KI, um Arbeitsaufgaben zu automatisieren, die zuvor von Bundesangestellten behandelt wurden. Die General Services Administration (GSA) testet einen Chatbot mit 1.500 Mitarbeitern und kann ihre Nutzung auf über 10.000 Arbeitnehmer erweitern, die Verträge und Dienstleistungen in Höhe von mehr als 100 Milliarden US -Dollar verwalten. Verdrahtet.
GSA -Tests KI -Chatbot, um Bundesaufgaben inmitten von Downsizing zu automatisieren
Die GSA -Führung rahmt den Bot als Produktivitätsverbesserungsinstrument. Thomas Shedd, Direktor der Technology Transformation Services (TTS) bei GSA, hob kürzlich auf einem All-Hands-Treffen hervor, dass die Agentur eine „AI-First-Strategie“ verfolgt. Er erklärte: „Als wir abnehmen [the] Gesamtgröße der Bundesregierung… Es gibt immer noch eine Menge Programme, die existieren müssen, was eine große Chance für Technologie und Automatisierung ist, in voller Kraft zu gelangen. “ Shedd erwähnte auch das Potenzial, dass „Coding -Agenten“ in der Regierung eingeführt werden, wobei sie sich auf KI -Programme beziehen, die Code schreiben und anwenden können.
Die Chatbot -Initiative begann während der Amtszeit von Präsident Joe Biden mit einem kleinen GSA -Technologie -Team namens 10x, das sie ursprünglich als KI -Testplattform und nicht als Produktivitätstool entwickelte. Die Verbündeten von Doge, das Department of Government Efficiency, haben sich jedoch auf seine beschleunigte Entwicklung und seinen Einsatz inmitten des Bundesstaates gedrängt. Das Programm, das zuvor als „GSAI“ bekannt ist und jetzt als „GSA -Chat“ bezeichnet wird, soll bei der Ausarbeitung von E -Mails, dem Schreiben von Code und anderen Funktionen helfen. Es wird letztendlich anderen Regierungsbehörden zur Verfügung stehen, möglicherweise unter dem Namen „AI.Gov“.
Zach Whitman, Chief AI -Offizier der GSA, beschrieb den Chatbot als Mittel für Bundesangestellte, um „effektiver und effizienter“ zu arbeiten. Die Schnittstelle ähnelt der von ChatGPT, in der Benutzer Eingabeaufforderungen einreichen und Antworten erhalten. Das System verwendet derzeit Modelle, die von meta und anthropisch lizenziert sind. Obwohl noch nicht zulässiges Dokumenten -Uploads zulässig sind, deuten Pläne vor, dass diese Funktion möglicherweise in Zukunft verfügbar ist. GSA-Mitarbeiter sehen vor, dass sie den Chatbot für verschiedene Aufgaben verwenden, einschließlich der groß angelegten Projektplanung und der Analyse von Datenrepositorys des Bundes.
GSA -Sprecher Will Powell bestätigte, dass die Agentur ihre IT -Ressourcen und Durchführung von Tests überprüft, um die Effektivität und Zuverlässigkeit der verfügbaren Tools zu überprüfen. Experten geben jedoch an, dass die Einführung des Chatbots möglicherweise einen breiteren Trend widerspiegeln, anstatt sich erheblich zu ändern. Es sind Berichte aufgetaucht, dass Doge -Berater KI genutzt haben, um die Agenturausgaben auf Kürzungen zu analysieren und die Arbeitsplatzbindung in der gesamten Regierung zu entscheiden.
In einem kürzlich TTS -Treffen erwartete Shedd, dass die Abteilung bald um „mindestens 50 Prozent“ schrumpfen würde. Darüber hinaus erstrecken sich die potenzielle Verwendung von KI auf sensible Anwendungen, z. B. die Beurteilung von Social-Media-Stellen von Studenten-Visa-Inhabern des Außenministeriums, um Links zu bestimmten Terrorgruppen zu identifizieren.
Die Implementierung der generativen KI birgt festgelegte Risiken, einschließlich Vorurteile, sachlich Ungenauigkeiten, hohen Kosten und komplexen Innenarbeits. GSA erkannte diese Probleme bei der Initialisierung von Arbeiten im Chatbot im vergangenen Sommer und errichtete die „10-fache AI-Sandbox“, um KI-Anwendungen sicher und kostengünstig zu erkunden. Motivationen, den Chatbot schnell zu veröffentlichen, können jedoch potenzielle Bedenken hinsichtlich der Anwendungen übersehen. Ein ehemaliger GSA -Mitarbeiter stellte die Risiken fest, die mit der Stütze auf KI für die Betrugsanalyse verbunden sind und das Potenzial für falsch -positive Ergebnisse hervorgehoben haben. Warnungen in Bezug auf Themen wie „Halluzination“ und voreingenommene Antworten sind in einer Hilfeseite für frühe Benutzer enthalten, die Durchsetzungsmethoden bleiben jedoch nicht spezifiziert.
Die Bundesbehörden haben seit Monaten generative KI getestet, wobei die GSA zuvor mit Google zusammengearbeitet hat, um das Potenzial der KI zur Verbesserung der Produktivität und Zusammenarbeit zu bewerten. Andere Agenturen wie die Abteilungen für Heimatschutz, Gesundheits- und menschliche Dienste sowie Veteranenangelegenheiten untersuchten ebenfalls vor der Amtseinführung KI -Tools. Trotzdem war die besondere Bereitstellung des Chatbot in seiner aktuellen Form möglicherweise nicht unvermeidlich.
Die Verwaltung von Biden hatte einen vorsichtigen Ansatz für KI verfolgt und durch eine Exekutivverordnung strenge Tests und Transparenz betont. Die Aufhebung dieser Ordnung an Trumps erstem Amtstag war jedoch eine Verschiebung der regulatorischen Haltung und ermöglichte möglicherweise den Bundesbehörden, spekulative Anwendungen der AI -Technologie zu nutzen.
Ausgewähltes Bildnachweis: Katie Moum/Unsplash