Luma AI, ein von a16z unterstütztes Unternehmen, das sich auf KI-Videos und 3D-Modelle spezialisiert hat, freigegeben Ray3 Modify, ein neues Modell, das es Benutzern ermöglicht, vorhandenes Filmmaterial mithilfe von Charakterreferenzbildern zu ändern und dabei die ursprüngliche Leistung beizubehalten. Benutzer liefern Start- und Endbilder, um Übergangsmaterial zu erstellen und so die Herausforderungen bei der Konservierung für Kreativstudios zu bewältigen. Ray3 Modify geht Probleme bei der Aufrechterhaltung der menschlichen Leistung während der KI-basierten Bearbeitung oder Effektgenerierung an. Das Modell orientiert sich eng am Input-Filmmaterial und ermöglicht es Studios, menschliche Schauspieler in kreativen oder Markenproduktionen einzusetzen. Es behält insbesondere die ursprüngliche Bewegung, das Timing, die Augenlinie und den emotionalen Ausdruck des Schauspielers bei, während es die Szene transformiert. Benutzer geben eine Charakterreferenz ein, um das Aussehen des menschlichen Schauspielers in die angegebene Figur innerhalb des Filmmaterials zu ändern. Durch diesen Prozess bleiben Details wie Kostüme, Ähnlichkeit und Identität während des gesamten Drehs erhalten. Solche Funktionen gewährleisten konsistente visuelle Elemente in allen Sequenzen ohne zusätzliches Filmen. Ersteller stellen außerdem Start- und Endreferenzbilder bereit, um Videosegmente mit Ray3 Modify zu erstellen. Diese Funktion hilft dabei, fließende Übergänge zu steuern oder Bewegungen und Verhaltensweisen von Charakteren festzulegen. Die Kontinuität zwischen den Szenen bleibt erhalten und unterstützt komplexe Erzählstrukturen in Videoprojekten. Amit Jain, Mitbegründer und CEO von Luma AI, erklärte: „Generative Videomodelle sind unglaublich ausdrucksstark, aber auch schwer zu kontrollieren. Heute freuen wir uns, Ray3 Modify vorzustellen, das die reale Welt mit der Ausdruckskraft der KI verbindet und den Kreativen gleichzeitig die volle Kontrolle gibt. Das bedeutet, dass Kreativteams Auftritte mit einer Kamera erfassen und sie dann sofort an jeden erdenklichen Ort anpassen, Kostüme wechseln oder sogar zurückgehen und die Szene mit KI neu drehen können, ohne den physischen Dreh neu zu erstellen.“ https://www.youtube.com/watch?v=4s-wRxtSKC0 Das Modell lässt sich direkt in die Dream Machine-Plattform von Luma integrieren und ist so für Benutzer sofort zugänglich. Luma positioniert sich im Bereich der KI-Videogenerierung gegen Konkurrenten wie Runway und Kling. Das Unternehmen führte bereits im Juni 2025 erste Funktionen zur Videomodifikation ein. Diese Veröffentlichung folgt auf eine im November angekündigte Finanzierungsrunde in Höhe von 900 Millionen US-Dollar unter der Leitung von Humain, einem KI-Unternehmen im Besitz des Public Investment Fund Saudi-Arabiens. Die bestehenden Investoren a16z, Amplify Partners und Matrix Partners schlossen sich der Runde an und stellten erhebliches Kapital für die Expansion bereit. https://static.cdn-luma.com/files/sanity/c9df5066-d549-4793-9dbb-fdff8ae16fba.mp4
Video: Luma
Luma plant in Zusammenarbeit mit Humain den Aufbau eines 2GW-KI-Clusters in Saudi-Arabien. Diese Infrastrukturinitiative unterstützt die Skalierung von Rechenressourcen für erweiterte KI-Video- und 3D-Modellierungsvorgänge.





