Dataconomy DE
Subscribe
No Result
View All Result
Dataconomy DE
Subscribe
No Result
View All Result
Dataconomy DE
No Result
View All Result

Anthropic fügt Claude AI mit Sicherheitswarnungen der Dateierstellung hinzu

byKerem Gülen
September 10, 2025
in Artificial Intelligence
Home Artificial Intelligence
Share on FacebookShare on Twitter

Anthropic hat eine neue eingeführt Dateierstellung und Analysefunktion Für seinen Claude AI -Assistenten können Benutzer Excel -Tabellen, Powerpoint -Präsentationen und andere Dokumente direkt in Gesprächen generieren.

Das Tool ist ab sofort in der Vorschau für verfügbar Max-, Team- und Enterprise -Abonnentenmit Pro -Benutzer Einsatz, um in den kommenden Wochen Zugriff zu erhalten.

Was die neue Funktion macht

Das Feature, offiziell genannt „Aktualisierte Dateierstellung und -analyse“, „ erweitert das vorhandene Analysetool von Claude. Es funktioniert ähnlich wie Der Code -Interpreter von ChatgptClaude die Fähigkeit geben, mit einem zu arbeiten Sandbox Computing -Umgebung.

Diese Umgebung ermöglicht Claude:

  • Pakete herunterladen
  • Code ausführen
  • Erstellen Sie Dateien wie .xlsx und .pptx
  • Analysieren Sie hochgeladene Dokumente

Benutzer können über beide auf die Funktion zugreifen Webschnittstelle und die Desktop -App.

Sicherheitsrisiken, die von Anthropic gekennzeichnet sind

Neben der Veröffentlichung gab Anthropic a aus Sicherheitsberatung Warnnutzer vor potenziellen Risiken. Weil die Funktion Claude gibt Internetzugang im Sandkastenböswillige Anweisungen könnten möglicherweise ausgeführt werden.

Das Unternehmen bestätigte:

„Diese Funktion bietet Claude Internetzugang zum Erstellen und Analysieren von Dateien, die Ihre Daten möglicherweise gefährden.“

Benutzer werden darauf hingewiesen Die Chats genau überwachen und stoppen Sie Claude, wenn es beginnt, Handlungen außerhalb des erwarteten Verhaltens zu versuchen.

Verwundbarkeit durch schnelle Injektionsangriffe

Die Dokumentation von Anthropic zeigt die Möglichkeit von Einsprechende Injektionsangriffe– Eine anfällige Verwundbarkeit, die erstmals im Jahr 2022 dokumentiert wurde. Diese Angriffe treten auf, wenn versteckte Anweisungen in Dateien oder Websites eingebettet sind, mit denen Claude interagiert.

Ein potenzieller Angriffspfad könnte beinhalten:

  1. Eine böswillige Datei oder Website addiert versteckte Anweisungen.
  2. Claude lesen sensible Informationen von einer vernetzten Wissensquelle.
  3. Claude nutzt die Sandbox -Umgebung, um eine externe Netzwerkanforderung zu erstellen und Daten aus.

Da AI -Modelle alle Anweisungen im Kontext verarbeiten, ist die Unterscheidung zwischen sicheren und böswilligen Aufforderungen zu unterscheiden extrem schwierig.

Minderung und Verantwortung

Anthropic sagt, es habe diese Risiken während identifiziert interne Rotteaming- und Sicherheitstests Vor dem Start. Die aktuelle Schadensstrategie des Unternehmens verantwortlich dem Benutzer.

Die offizielle Anleitung lautet:

  • Überwachen Sie Claude, während Sie die Funktion verwenden.

  • Stoppen Sie Claude sofort Wenn es unerwartet Daten zugreift oder verwendet.

Diese praktische Aufsichtsanforderung steht im Gegensatz zur Positionierung der Funktion als automatisiertes Produktivitätstool.


Ausgewähltes Bildnachweis

Tags: AnthropischClaude AI

Related Posts

Keine Warteliste: Claude Health kommt für US-Pro- und Max-Benutzer

Keine Warteliste: Claude Health kommt für US-Pro- und Max-Benutzer

Januar 12, 2026
Google entfernt KI-Übersichten für einige Gesundheitsabfragen

Google entfernt KI-Übersichten für einige Gesundheitsabfragen

Januar 12, 2026
Google Cloud führt Gemini Enterprise-Einkaufsagenten ein

Google Cloud führt Gemini Enterprise-Einkaufsagenten ein

Januar 12, 2026
Google führt das Universal Commerce Protocol ein, damit KI für Sie einkaufen kann

Google führt das Universal Commerce Protocol ein, damit KI für Sie einkaufen kann

Januar 12, 2026
Jensen Huang, CEO von Nvidia, kritisiert "Weltuntergang" KI-Erzählungen

Jensen Huang, CEO von Nvidia, kritisiert "Weltuntergang" KI-Erzählungen

Januar 12, 2026
63 % der neuen KI-Modelle basieren mittlerweile auf chinesischer Technologie

63 % der neuen KI-Modelle basieren mittlerweile auf chinesischer Technologie

Januar 12, 2026

Recent Posts

  • Keine Warteliste: Claude Health kommt für US-Pro- und Max-Benutzer
  • Google entfernt KI-Übersichten für einige Gesundheitsabfragen
  • Indonesien und Malaysia blockieren Grok wegen sexualisierter Deepfakes
  • Anthropic und Allianz arbeiten zusammen, um transparente KI in den Versicherungssektor zu bringen
  • Neuer ISOCELL-Sensor für Galaxy S27 Ultra durchgesickert

Recent Comments

Es sind keine Kommentare vorhanden.
Dataconomy DE

COPYRIGHT © DATACONOMY MEDIA GMBH, ALL RIGHTS RESERVED.

  • Home
  • Sample Page

Follow Us

  • Home
  • Sample Page
No Result
View All Result
Subscribe

This website uses cookies. By continuing to use this website you are giving consent to cookies being used. Visit our Privacy Policy.