Anthropic hat eine neue eingeführt Dateierstellung und Analysefunktion Für seinen Claude AI -Assistenten können Benutzer Excel -Tabellen, Powerpoint -Präsentationen und andere Dokumente direkt in Gesprächen generieren.
Das Tool ist ab sofort in der Vorschau für verfügbar Max-, Team- und Enterprise -Abonnentenmit Pro -Benutzer Einsatz, um in den kommenden Wochen Zugriff zu erhalten.
Was die neue Funktion macht
Das Feature, offiziell genannt „Aktualisierte Dateierstellung und -analyse“, „ erweitert das vorhandene Analysetool von Claude. Es funktioniert ähnlich wie Der Code -Interpreter von ChatgptClaude die Fähigkeit geben, mit einem zu arbeiten Sandbox Computing -Umgebung.
Diese Umgebung ermöglicht Claude:
- Pakete herunterladen
- Code ausführen
- Erstellen Sie Dateien wie .xlsx und .pptx
- Analysieren Sie hochgeladene Dokumente
Benutzer können über beide auf die Funktion zugreifen Webschnittstelle und die Desktop -App.
Sicherheitsrisiken, die von Anthropic gekennzeichnet sind
Neben der Veröffentlichung gab Anthropic a aus Sicherheitsberatung Warnnutzer vor potenziellen Risiken. Weil die Funktion Claude gibt Internetzugang im Sandkastenböswillige Anweisungen könnten möglicherweise ausgeführt werden.
Das Unternehmen bestätigte:
„Diese Funktion bietet Claude Internetzugang zum Erstellen und Analysieren von Dateien, die Ihre Daten möglicherweise gefährden.“
Benutzer werden darauf hingewiesen Die Chats genau überwachen und stoppen Sie Claude, wenn es beginnt, Handlungen außerhalb des erwarteten Verhaltens zu versuchen.
Verwundbarkeit durch schnelle Injektionsangriffe
Die Dokumentation von Anthropic zeigt die Möglichkeit von Einsprechende Injektionsangriffe– Eine anfällige Verwundbarkeit, die erstmals im Jahr 2022 dokumentiert wurde. Diese Angriffe treten auf, wenn versteckte Anweisungen in Dateien oder Websites eingebettet sind, mit denen Claude interagiert.
Ein potenzieller Angriffspfad könnte beinhalten:
- Eine böswillige Datei oder Website addiert versteckte Anweisungen.
- Claude lesen sensible Informationen von einer vernetzten Wissensquelle.
- Claude nutzt die Sandbox -Umgebung, um eine externe Netzwerkanforderung zu erstellen und Daten aus.
Da AI -Modelle alle Anweisungen im Kontext verarbeiten, ist die Unterscheidung zwischen sicheren und böswilligen Aufforderungen zu unterscheiden extrem schwierig.
Minderung und Verantwortung
Anthropic sagt, es habe diese Risiken während identifiziert interne Rotteaming- und Sicherheitstests Vor dem Start. Die aktuelle Schadensstrategie des Unternehmens verantwortlich dem Benutzer.
Die offizielle Anleitung lautet:
Überwachen Sie Claude, während Sie die Funktion verwenden.
Stoppen Sie Claude sofort Wenn es unerwartet Daten zugreift oder verwendet.
Diese praktische Aufsichtsanforderung steht im Gegensatz zur Positionierung der Funktion als automatisiertes Produktivitätstool.





