We're sunsetting PodQuest on 2025-07-28. Thank you for your support!
Export Podcast Subscriptions
cover of episode Open World der Zukunft: Das verspricht The Witcher 4 | Interview mit CD Projekt

Open World der Zukunft: Das verspricht The Witcher 4 | Interview mit CD Projekt

2025/6/7
logo of podcast GameStar Podcast

GameStar Podcast

AI Deep Dive AI Chapters Transcript
People
J
Julius Gierbig
Topics
Julius Gierbig: 我参与了与Epic Games合作的Unreal Engine技术演示项目。这个演示并非《巫师4》的实际游戏内容,而是展示我们与Epic合作改进的引擎技术,这些技术最终将应用于《巫师4》。演示在标准版PS5上运行,旨在展示我们对游戏世界规模、质量和叙事水平的追求,即使在主机平台上也能达到很高的标准。我们从之前的项目中吸取经验,并与Epic合作开发了新的工具和功能,这些工具和功能将使我们能够创建和发布下一代开放世界RPG游戏。我们共同开发的工具将在Unreal Engine 5.6更新中公开发布,这体现了我们与游戏开发社区分享技术的承诺。我们从Red Engine中汲取了关于流媒体、角色创建和世界构建的知识,并将其应用于与Epic的合作中。选择Unreal Engine是因为它允许同时进行多个项目,更容易招聘到熟悉该引擎的开发者,从而缩短了开发时间。我们致力于确保游戏具有《巫师》系列的独特氛围,并在前作的基础上进行进化。 在技术演示中,我们展示了各种技术进步,例如逼真的马匹动画(通过机器学习变形器实现肌肉在皮肤下的逼真显示),以及多角色运动匹配系统,允许玩家从任何角度接近并骑乘马匹,每次都会有不同的动画。科维尔地区将是《巫师4》的一部分,并且会有新的怪物,例如Manticore。技术演示中的美术风格和方向是《巫师4》的目标。我们致力于让世界中的每棵树都以极高的细节呈现,每根针叶都经过建模并接收正确的光照。为了在游戏中呈现具有复杂光照条件的大量树木,我们开发了一种新的方法,该方法使用可变大小的立方体来计算针叶上的光照。我们超越了使用贴图来表示植物的方式,并创建了真正的3D模型,玩家可以走近并从各个角度观看。 为了解决在快速移动通过游戏世界时出现的卡顿问题,我们与Epic合作开发了Fast Geo Streaming系统,该系统允许快速加载和卸载静态物体,从而确保在快速移动通过开放世界环境时,不会出现卡顿或网格弹出的情况。我们的目标是在PS5上使用Unreal Engine展示大型开放世界,允许玩家无缝地放大和缩小细节,并在不同地点之间快速移动。Kelpie和Ciri与NPC的互动使用了相同的多角色运动匹配系统。我们使用Math.ai(Unreal Engine的AI行为系统)来模拟NPC及其逻辑,以处理大量的互动。技术演示展示了即使在不减少AI复杂性的情况下,也可以在市场上同时处理300个NPC的互动。NPC会根据周围发生的事件(例如熊捕鱼)做出反应,这展示了一个相互作用的例程生态系统。 演示中Ciri撞倒小贩的场景是为了展示玩家可以与NPC互动,并且苹果的掉落是物理模拟的结果。当苹果掉落时,会向附近的NPC发送信号,他们会根据自己的动画做出反应,例如孩子和猪会开始吃苹果。NPC根据他们所处的环境从一组动画和语音中进行选择,但并非完全即兴创作。技术演示展示了引擎的功能,但最终如何在《巫师4》中实施尚未最终确定。技术演示包含来自《巫师4》的资产,例如角色、世界和地图区域。兰尼克斯特(Lann Exeter)是科维尔的诺维格拉德(Novigrad),但目前尚未透露太多信息。为了在大量角色上播放动画,我们与Epic合作开发了一个名为Unreal Animation Framework的动画系统。演示的重点是展示在PlayStation 5上可以实现多少功能,例如角色的数量和森林的大小。 我们正在开发一种智能对象系统,该系统允许在世界的特定位置播放动画,从而更轻松地构建大型世界。我们的目标是确保世界感觉像一个精心制作的世界,角色有意义、扎根并沉浸在世界中。系统设计为能够根据体型选择不同的动画,但创建这些动画是一项巨大的任务。我们与Epic共同开发了一种名为Stitch Track的新功能,该功能允许从Ciri的当前姿势更平滑地过渡到过场动画。主要使用Epic现有的MetaHuman Animator系统进行面部动画,并与Epic合作以获得最佳效果。即使对于只是闲聊或与你交谈的角色,也使用与过场动画中相同的面部动画技术。科维尔是《巫师》中最北端的地区,每个新地区都会有新的怪物。科维尔是一个中立但富裕的地区,是该地区资源和贸易的场所。

Deep Dive

Chapters
CD Projekt Red präsentiert eine Tech-Demo, die nicht Witcher 4 zeigt, sondern die neue Technologie mit Unreal Engine 5 demonstriert. Die Demo lief auf einer regulären PS5 und zeigt die Möglichkeiten der Engine für Next-Gen-Open-World-RPGs. Die entwickelten Tools werden auch öffentlich zugänglich gemacht.
  • Tech-Demo zeigt Unreal Engine 5 Technologie für Witcher 4
  • lief auf einer Standard PS5
  • entwickelte Tools werden öffentlich zugänglich gemacht

Shownotes Transcript

CD Projekt Red hat uns alle überrascht mit einer Tech-Demo, die ganz wichtig nicht The Witcher 4 zeigt.

Aber die Technologie hinter The Witcher 4, die Spielwelt oder einen Teil der Spielwelt, in der das Ganze wahrscheinlich spielen wird und viele neue Features, die jetzt mit der Unreal Engine 5 möglich sind. Wir haben noch so viele Fragen und die werden wir jetzt hoffentlich in einem etwas längeren Gespräch beantworten. Mit dabei mein fantastischer Kollege Fabiano. Hallo. Und Senior Technical Animator Julius Gierbig.

Auch ein Julius. Wow. Ui, schauen wir mal. Von CD Projekt Red. Ja, schön, dass ich da sein darf. Schön, dass du da bist. Freut mich. Wir haben uns zum ersten Mal gesehen jetzt. Aber ich bin sehr gespannt, was du uns noch erzählen kannst. Wir haben das Ganze jetzt gerade gesehen und haben natürlich ein paar Fragen. Vielleicht kannst du einmal nochmal kurz generell erklären, warum...

Was ist das jetzt eigentlich, was wir gerade gesehen haben? Und warum macht ihr das? Weil, ganz wichtig, es ist nicht eine Witcher 4. Es ist eine Neck-Demo. Und es ist auch nicht ein Teil von Witcher 4 oder eine Demo von Witcher 4. Aber was cool daran ist und was das eigentlich genau ist, ist, es zeigt die Arbeit, die wir zusammen mit Epic geleistet haben an der Unreal Engine. Und deswegen ist auch der genaue Titel davon eine Unreal Engine Technical Demo

quasi von den Tools und von der ganzen Technologie und alles, was wir an der Engine eben rumbasteln, die dann später in Witcher 4 auch benutzt werden. Genau, das ist quasi so der grobe Rahmen davon. Das lief hier bei uns auf einer PS5. Richtig. Ihr sagt auch, das ist die ganz normale Base-PS5. Die du aus dem Laden kriegst, die Non-Pro-Version, genau, die reguläre PS5-Retail-Version.

Ohne irgendwelche, keine Ahnung. Es ist ja spannend, dass ihr so eine Tech-Demo wirklich für diese Konsole konzipiert habt. Spielt da das ganze Cyberpunk, wie läuft das auf den Base-Konsolen-Thema auch ein bisschen mit rein, dass ihr gesagt habt, jetzt von Anfang an

Tech-Demo mal auf der Konsole? Naja, wir haben natürlich aus Cyberpunk gelernt irgendwo und wir haben uns gedacht, wir wollen transparent sein. Wir wollen zeigen, dass es uns wirklich am Herz liegt, dass auch die Welten, die wir bauen und die Größe der Welt und auch die Qualität unserer Spiele und unserer Storytelling, dass das auch auf den Konsolen super ausschaut. Und der beste Weg, das zu machen und das auch zu demonstrieren, dass wir da auch wirklich Mühen und Zeit reinstecken,

ist, das einfach auf der PlayStation zu zeigen. Weil es wäre irgendwie natürlich ein bisschen schräg, wenn wir da jetzt wieder einen High-End-PC hinstellen und sagen, ja, es würde einfach nicht viel beweisen. Hier beweisen wir wirklich, dass so eine Welt mit so vielen Charakteren, mit so einem riesigen Wald, diesem Ausmaß, dass das auch wirklich möglich ist, technisch eben. Und dafür eben auch diese technische Demo, diese Demonstration der Technik,

Auf der PS5, auf der Base. Und auch, dass es mit der Unreal Engine möglich ist. Das ist ja auch eine neue Präsentation eurer neuen Engine, nachdem ihr die Red Engine quasi in den Ruhestand geschickt habt, grob gesagt.

Aber eben auch eine Entscheidung, wo dann eben viele Leute auch gesagt haben, okay, ist die Unreal Engine die richtige Entscheidung? Weil es ist eine eindrucksvolle Engine, man hat immer wieder tolle Szenen, aber es gibt eben auch Kritik an der Unreal Engine. Und ich glaube, gerade viele Kritikpunkte waren ja was, was jetzt mit dieser Tech-Theme auch wirklich angegangen sei.

Genau, also ich meine, natürlich soll ich dazu sagen, es ist ja nicht unsere Engine, das ist ja trotzdem eine Kooperation, die wir mit Epic zusammen betreiben. Und ja, natürlich haben wir ein paar Challenges gehabt, ein paar Dinge, die uns einfach in unserem Werkzeugkasten noch gefehlt haben. Aber genau deswegen haben wir auch uns eben für diese Kooperation mit Epic entschieden und das...

beruht ja auch auf Gegenseitigkeit. Wir haben ihnen ein Angebot gemacht, hey, wir würden gerne mit euch zusammenarbeiten an diesen Features, die wir eben für wichtig halten, basierend auf den Erfahrungen, die wir selber gemacht haben mit der Red Engine, mit Cyberpunk, mit Witcher 3 und da wirklich dann auch Tools bauen, die diese Engine fähig machen, Next-Gen-Open-World-RPGs zu erstellen und auf den Markt zu bringen. Aber wie muss ich mir diese Zusammenarbeit denn vorstellen? Also ihr geht dann hin und sagt ...

Wir brauchen diese Funktionalität. Und dann sagt Epic, ja, okay, wir gucken mal mit euch zusammen, wie wir das umgesetzt bekommen. Also so auf dem Level? Prinzipiell funktioniert es natürlich so, dass wir zu Epic Games hingehen und sagen, hey, wir arbeiten an diesen Tools, weil wir benötigen sie für unsere Spiele. Und habt ihr vielleicht auch Interesse daran, mit zu kooperieren mit uns? Weil natürlich ...

sind die Entwickler von Epic Games die Experten der Unreal Engine. Sie haben sie ja selber gebaut. Deswegen viel bessere Experten von der Unreal Engine wirst du ja kaum finden. Und das ist einfach für uns beide Seiten ein wahnsinnig

positive Kooperation, weil natürlich wir gleichzeitig zusammen mit Direkt-Engine-Entwicklern zusammenarbeiten können und die Tools bauen können, die wir auch gerne haben wollen, die dann auch später Witcher 4 antreiben werden, sage ich jetzt mal so. Und gleichzeitig, und das ist auch was, was ich wirklich auch hier in den Fokus stellen möchte, ist,

Die Tools, die wir zusammen mit Epic entwickeln, natürlich haben wir auch ein paar eigene, aber die Tools, die wir jetzt auch gesehen haben, die wir auch vorstellen in dieser Technical Demo, die werden auch in der öffentlichen Unreal Engine in dem neuen Update 5.6 dann veröffentlicht und zugänglich für jeden, der Unreal Engine benutzt. Und das finde ich einfach bemerkenswert.

total cool, dass wir das teilen können mit der ganzen Spieleentwickler-Community, sag ich mal, die dann auf einmal Zugriff auch auf die Tools haben können und dann auch Spiele in dieser Größe bauen können.

Hm, das ist interessant, ja. Das heißt, dann gebt ihr quasi auch was zurück an andere Unreal Engine Benutzer. Richtig, genau. Profitiert ihr denn auch ein Stück weit von den Erfahrungen an der Red Engine oder ist es so ein Zurücksetzen? Nein, natürlich profitieren wir von der Red Engine. Ich meine, die Red Engine hatte natürlich auch sehr, sehr viele Vorteile. Ich persönlich habe zwar noch nie genauer jetzt per se mit der Red Engine gearbeitet. Ich habe ja nie an Witcher 3 oder Cyberpunk gearbeitet. Ich bin direkt

in die Unreal Engine auf Witcher 4 gewechselt. Natürlich habe ich die Red Engine auch angeguckt. Ich muss es ja auch einfach verstehen, wie die Leute arbeiten in der Firma. Aber es war natürlich viel Wissen über Streaming, wie wir Charaktere bauen, wie wir die Welt bauen können und so weiter, dass wir jetzt mitbringen können, mit Epic teilen können und somit auch mit der Welt teilen können. Und das finde ich ist ein

ein echt cooler Schritt in eine richtige Richtung. Wie trifft man denn diese Entscheidung, dass man wirklich sagt, wir gehen jetzt von der hauseigenen Engine auf eine externe, sag ich mal, Unreal Engine 5? Also kannst du da ein bisschen auf die Gründe eingehen, die es da gab? Ich meine, wie gesagt, natürlich nur begrenzt. Ich war ja nicht zu dem Zeitpunkt in der Firma. Aber es war wirklich, so wie ich es mitbekommen habe, eine sehr gut durchdachte Entscheidung. Also die Entscheidung war wirklich...

Also es wurde analysiert, sie haben sich beide Engines und auch andere Engines, nicht nur Android, haben sie sich angeguckt und wirklich lange hin und her überlegt. Und man darf nicht vergessen, eine Engine ist in dem Sinn ja auch nur ein Werkzeugkasten. Mhm.

Und deswegen ist das einfach auch irgendwo ein Assessment, wenn man so will, einfach eine Kontrolle, ob man guckt, welcher Werkzeugkasten gefällt mir lieber, welche Werkzeuge möchte ich lieber haben in meiner Entwicklung. Und da fiel dann halt die Entscheidung auf die Unwheel Engine, weil sie uns auch erlaubt, mehrere Projekte gleichzeitig zu fahren und auch zusammenzuarbeiten.

sehr, sehr schnell neue Entwickler einzustellen. Dadurch, dass Unreal Engine ja auch offen verfügbar ist auf dem Markt, gibt es sehr viel mehr Entwickler, die sich damit bereits auskennen. Und damit ist natürlich auch die Zeit, die Leute einzulernen, sehr viel kürzer. Und deswegen war es generell einfach aus vielen, vielen Gründen für uns eine sehr positive Entscheidung. Aber auch eben eine sehr durchdachte. Es war jetzt

Mich nicht an einem Sonntagabend beim Kaffee. Was ich auch cool finde, vor allem, weil wir es auch, dass wir es jetzt sehen konnten bei der Tech-Demo, die ihr gezeigt habt, dass viele Leute setzen manchmal auch Engine mit Grafik gleich und dann kommt manchmal so Sachen, ach, die Unreal-Engine-Spiele, die sehen alle gleich aus. Und das ist natürlich nicht der Fall. Es ist eben auch sehr viel Handwerkskunst von den Entwicklern selbst, wie man mit der Engine umgeht und was für einen Look man letztlich aus der Engine rausholt.

Das sieht man jetzt auch bei der Tech-Demo. Das hat nämlich, finde ich, volle Kanne Witcher-Atmosphäre, die ihr da geschaffen habt. Ja.

Ja, ich meine, es ist natürlich immer toll, wenn das die Zuschauer sagen. Das ist ja auch irgendwo der Effekt, den wir irgendwo erreichen wollen, dass da jeder sich sein eigenes Bild so machen kann und dass das auch sichtbar ist, dass wir uns da wirklich Mühe geben, dass das auch durch und durch Witcher ist und auch einfach den richtigen Look, den richtigen Feel hat, aber auch natürlich trotzdem auch aufbaut auf dem bisherigen Witcher-Look.

und quasi nochmal eine Evolution ist. Und ich glaube, wie gesagt, das kommt wieder zurück auf diese Werkzeugkiste, das kommt immer darauf an, was du damit machst. Und ich finde, wir haben ein wahnsinnig tolles Art-Team, die da wirklich Glanzleistung geleistet haben mit dem Trailer, sowohl als auch jetzt mit der Tech-Demo. Und ja, wie gesagt,

Jeder soll sich da seine eigene Meinung bilden, aber ich bin gehypt. Ich finde es wunderbar. Ja, gehen wir doch mal auf die Tech-Demo ein bisschen ein. Mich habt ihr auf jeden Fall auch gekriegt, direkt schon am Anfang mit dieser Szene, wo es quasi aussieht wie so ein Hintergrund und Siri steht da vor so einem Panorama. Und dann auf einmal fährt die Kamera rein und wir sind im Gameplay. Und an der Stelle können wir auch noch mal bestätigen, du hast das hier bei uns wirklich gut.

Also wir haben gesehen, du hast die Kamera frei bewegen können, hast Siri wirklich selber gesteuert. Also an der Stelle nochmal, ja, das war wirklich auf dieser PS5 hier bei uns live vorgespielt. Ja, und dann geht Siri da diesen Berg runter und...

Ich mochte direkt die Kleidungsphysik sehr, wie sich das alles an dem Körper von ihr langgeschmiegt hat. War sehr, sehr smooth. Und auch eine Sache, die, finde ich, nicht viele Spiele so on point hinbekommen, Pferdeanimationen.

Und da habt ihr auch wirklich versucht, das Next Level so ein bisschen zu erreichen. Richtig. Also Pferde sind ja an sich sehr komplexe Tiere. Durchaus. Allein von der Bewegung. Ich meine, Vierbeiner allein ist schon mal direkt komplizierter als Zweibeiner. Und da gingen viele verschiedene Dinge, mussten wir erst mal erforschen und auch selber erfinden, dass das wirklich funktioniert hat. Teile davon sind beispielsweise, wir haben mit Körperschaft,

Unreal Engines bereits existierende Machine Learning Deformer nennt sich das. Ganz wilder Begriff, aber es ist an sich einfach nur die Fähigkeit, Muskeln korrekt unter der Haut darzustellen. Man hat das auch, glaube ich, gesehen in der Technical Demo, wo man da kurz diese Muskeln von dem Pferd sieht, wie die da wirklich unter der Haut von dem Pferd sich bewegen und wie das alles dann realistisch wird und aber trotzdem noch

performant bleibt, dass man es in dem Spiel machen kann. Und genauso kommen da auch andere neue Animationssysteme hinzu, wo wir beispielsweise von allen Richtungen aufs Pferd zulaufen können, um uns auf den Sattel zu setzen.

Und das nennt sich zum Beispiel Multi-Character-Motion-Matching. Wieder mal ein sehr, sehr fancy Begriff, aber an sich auch ein Animationssystem, was dir erlaubt, mehrere Charaktere zu synchronisieren und schlau in Bewegung zu bringen, dass sie miteinander korrekt die Animation aufeinander abziehen. Also dass nicht ein Element einfach statisch ist und das andere macht eine Animation damit, sondern wenn Siri auf das Pferd steigt,

Rutscht zum Beispiel auch der Sattel ein bisschen in ihre Richtung, wenn sie dran zieht, so als Beispiel? Es ist eher so eine Art, wir bringen alle Teile in Position und dann lassen wir die Interaktion abspielen. Aber vom Prinzip her ja. Also wie gesagt, du kannst aus allen Richtungen an das Pferd herantreten und du wirst jedes Mal eine andere Animation sehen, wie du auf das Pferd steigst. Und das Pferd wird trotzdem auch korrekt gestaltet.

die gegensätzliche Animation dazu spielen. Und das ist natürlich auch für uns total schön, dieses Level von Detail erreichen zu können mit einem so komplexen Charakter wie ein Pferd wie Kelpie. Aber es ist ja auch cool, weil es ist ja auch nochmal für den Spielfluss einfach sehr zuträglich. Also es ist ja nicht einfach nur, dass es cool aussieht, wenn ich

von jeder Position aus auf mein Pferd steigen kann, aber es ist halt, es lässt halt alles sehr flüssig, sehr organisch wirken. Ich kann in einem Guss quasi eben noch gegen Monster kämpfen und merke, ah, dieser Manticore ist ein bisschen zu viel für mich. Ich hau lieber mal ab auf Kelpie und dann schwinge ich mich halt, wie ich gerade stehe, auf das Pferd. Das ist ein Spielfluss, den ich immer sehr schätze. Was ich aber vor allem

Mich freut zu sehen ist, welche Muskelpartien angespannt werden, wenn das Pferd auf dem Dach steht. Ja, schauen wir mal, wie weit wir da mitkommen. Ja, ich meine, es ist ja auch eine kalte Bergregion. Ich habe jetzt noch keine Pferdehoden gesehen. Nee, das noch nicht. Aber ich meine, die Region finde ich an sich ja auch sehr spannend, einfach als Thema. Das ist jetzt auch das erste Mal, dass wir wirklich Covir als Region vorstellen.

Und somit ist es auch offiziell, Kovir wird ein Teil von Witcher 4 sein, diese Region. Und auch der Manticore, wie es ja auch immer ist mit neuen Regionen, kommen neue Monster dazu. Und damit haben wir dann auch den Manticore als zusätzliches neues Monster in Witcher 4, eins von vielen Regionen.

Und da sind noch ein paar mehr Sneak Peeks drin natürlich auch. Macht's euch natürlich nicht leichter, dass die Leute verstehen, das ist nicht The Witcher 4. Richtig. Aber es ist schon die Region, in der The Witcher 4 spielt und vielleicht auch das ein oder andere Monster. Genau, genau, richtig. Also deswegen eben dieser wichtige Unterschied zwischen wir zeigen hier vor allem die Werkzeuge, die wir zusammengebaut haben, mit Epic zusammen.

Aber natürlich wollen wir auch eine gewisse Transparenz zeigen, wo wir hinwollen mit Witcher 4.

Ob jetzt tatsächlich genau diese Cinematics, diese Bäume genauso auch dann in Witcher 4 landen, kann ich nicht sagen. Dafür ist es viel zu früh. Aber natürlich ist dieser Stil, diese Richtung, die wir hier zeigen, das, wo wir hinsteuern wollen mit Witcher 4. Ansonsten würden wir diese Tools ja nicht bauen. Das ist ja doch auch irgendwo mit dem Hintergrund, dass diese dann für Witcher 4 benutzt werden.

Aber auch eine sehr mutige Entscheidung, das zu machen, finde ich, weil man weiß ja, wie es laufen wird. Da werden wahrscheinlich auf jeden Fall irgendwo Gameplay-Schnipsel auftauchen oder halt Szenenschnipsel, die Leute als Gameplay bezeichnen. Das heißt, ihr macht euch da ein Stück weit verwundbar, aber ich finde das sehr tapfer, das zu tun, um einfach

zu beweisen, was ihr auch gesagt habt. Wir sind hier in der Lage, technologisch einen Schritt zu machen, der erstrebenswert ist und der die Gaming-Branche voranbringt. Und deswegen demonstrieren wir das auf diese Art.

in der Gewissheit, dass es auf jeden Fall hier und dort Szenen geben wird, die vielleicht Leute aus dem Kontext reißen. Also wenn ihr da draußen bei TikTok oder auf YouTube einzelne Szenen seht und da steht Gameplay drüber, könnt ihr in den Kommentaren immer mahnend den Zeigefinger heben und sagen, das ist kein Gameplay von Witcher 4. Und unser Videoposten. Ja, genau. Ganz wichtig. Ja, die Demo geht danach in einen Schwenk über diesen sehr...

großen und sehr dichten Wald und das ist ja auch eine von euren, eins eurer Achievements, dieser Wald. Du hast vorhin gesagt, jede Nadel von den Tannenbäumen wird einzeln berechnet. Kannst du da ein bisschen drauf eingehen? Vielleicht auch ein bisschen für die Leute, die jetzt nicht ultra-technisch bewandert sind, mal erklären, wie man das erreicht. Genau, ähm,

Das ist tatsächlich wahr. Wir wollen wirklich, dass jeder Baum, zu dem du hingehst in dieser Welt, in so einem Detail darstellbar ist, dass wirklich jede Nadel modelliert und auch korrektes Licht empfängt, dass da auch ein Schatten dabei ist und so weiter. Und manche von euch, die tatsächlich schon irgendwie Erfahrungen mit Unreal haben, die kennen den Begriff Nanite vielleicht. Aber auch

Für diejenigen, die es noch nicht kennen, das ist eine Möglichkeit, wie man dynamisch Modelle während dem Spiel verändern kann, damit sie auch in der Ferne anzeigbar sind. Obwohl sie total hochauflösend sind, kann man sie in der Ferne dann trotzdem noch darstellen. Das funktioniert wahnsinnig gut für sehr, sehr viele Anwendungsbereiche, für diese Nadeln, für diese Bäume, für diese komplexen Lichtverhältnisse, die man hat mit den einzelnen Ästen,

hat das leider nicht ausgereicht und wir mussten komplett neu umdenken mit Nanite. Und deswegen haben wir jetzt einen neuen Ansatz, der mithilfe von Würfeln, die ihre Größe verändern, je nachdem wie nah du dran stehst, das Licht von verschiedenen Seiten empfängt und damit dann versucht, das Licht abzulegen.

gescheit zu berechnen, um es auf diesen Nadel korrekt darzustellen. Und damit haben wir den Effekt, dass wir einen Wald von Hunderten von Bäumen darstellen können und nahtlos rein- und rauszoomen kann, wie man es auch in der Tech-Demo gesehen hat. Und wirklich von der Nadel bis zum Urwald gefühlt zoomen kann, ohne Probleme und auch mit, wie gesagt, 60 FPS auf einer PS5. Das ist

wirklich ein Achievement für uns und auch natürlich ein Achievement von der Zusammenarbeit, die wir mit Epic haben. Aber um hier auch nochmal den Kontext zu geben, wenn ihr sagt,

einzelne Nadeln werden berechnet, dann geht es euch darum, das quasi visuell darzustellen und wie das Licht und die Umwelt darauf reagiert. Es geht nicht darum, sie jetzt physikalisch zu berechnen, dass ich am Baum schüttel und da fällt jede einzelne Nadel runter. Genau. Nee, das natürlich nicht. Aber das, was man vielleicht kennt, was vielleicht viele Spieler schon kennen, ist, dass vor allem auch Bäume, aber generell Pflanzen oft mit sogenannten Cards dargestellt wurden. Das heißt, da war einfach ein Bild dargestellt,

von einer Pflanze, von einem Busch oder sowas, vielleicht auch zwei irgendwie so übereinander gestellt und das war dann dein Baum, dein Busch oder was auch immer. Und wir wollen wirklich den Schritt weitergehen und sagen, wir wollen, dass das wirklich ein 3D-Modell ist, zu dem du hinlaufen kannst und um das du rumgucken kannst, wo du wirklich die Ecken und Kanten des 3D-Modells sehen kannst und es nicht einfach nur ein Bild oder eine Textur ist, die du vor dir siehst.

Sehr, sehr schön, ja. Wir sehen danach auch in diesem Schwenk, das ist ja so ein bisschen eine der Herausforderungen gewesen, was die Unreal Engine anbelangt, dass bei so Kamerafahrten dieser Stutter oft entstanden ist. Und das scheint ihr ja auch gelöst zu haben, das Problem. Weil es sieht sehr smooth aus, zumindest in der Demo, die wir jetzt gesehen haben. Genau.

Genau, das war uns auch wichtig, dass wir da auch mit Epic gut zusammenarbeiten. Wir bringen natürlich auch ein bisschen Erfahrung von Witcher 3 und Cyberpunk mit. Und zusammen mit Epic haben wir ein System entwickelt, das nennt sich Fast Geo Streaming, also schnelle Geometrie Streaming. Und das ist ein System,

Feature von Unreal Engine, das auch öffentlich verfügbar ist jetzt mittlerweile, womit du statische Objekte extrem schnell rein- und rausladen kannst. Und das führt natürlich dann dazu, dass wenn du als Spieler dich sehr schnell durch die Spielwelt bewegst, also wie wir ja zum Beispiel diese Kamerafahrt haben, aber auch wenn du im Galopf mit Kelpie durch den Wald läufst, ähm,

dann wirst du kein Stottern haben, du wirst keine Meshes sehen, die irgendwie reinploppen oder sowas. Also das war zumindest das Ziel mit Fast Geostreaming und ich denke, das haben wir erreicht. Und das ist auch sehr sichtbar, dass es eben flüssig läuft auf der PS5.

Und eben in einer Open-World-Umgebung, weil das, was wir da gesehen haben, war ja im Prinzip schon ein großer offener Bereich und nicht, wie man es vielleicht von Uncharted oder so kennt, ein sehr zusammengefächter Raum, sondern das war schon eine ganz große offene Umgebung. Richtig, genau. Das war eben auch Teil oder Hintergrund dieses Gedanken, dass wir wirklich, egal wo wir sind, egal wie hoch die Kamera ist, egal wo Siri ist, dass wir wirklich...

hingehen können, ins Detail gucken können und genauso aber auch genauso schnell ohne Probleme rüber in einen anderen Ort gehen können und auch von der weiten Ferne trotzdem diese Ausblicke und vor allem halt diese wunderschöne Vista, wenn du da dieses Wallpaper, wie du es genannt hast, siehst. Das war wirklich so unser Ziel eben damit, dass man zeigen kann, wir können jetzt solche Welten mit Unreal auf einer PS5 darstellen.

Ja, für alle, die natürlich, auch wenn es nicht The Witcher 4 ist, nach Hinweisen auf The Witcher 4 achten, ist es ja auch spannend, dass wir dann in ein Dorf kommen mit Ciri. Und da fand ich sehr auffällig, wie die NPCs halt

Einmal, wie sie sich miteinander beschäftigt haben, aber wie sie auch auf Siri reagiert haben. Man sieht irgendwie, sie nimmt die Kapuze ab und dann wird sie angespuckt, weil wahrscheinlich jemand, Hexer sind ja nicht überall beliebt in der Welt. Und ich fand's auch

interessant, als sie gegen jemanden gegenstößt, wie dann die Person darauf reagiert hat, weil es eben nicht einfach nur diese, okay, ist die Kollision doll genug, damit beide so eine Animation haben, sondern es ist halt wirklich so, sie schmiegen sich so leicht aneinander und er...

weicht so leicht zurück, aber er bleibt noch stehen. Also auch da ist das auch wieder dieses, wie hast du es genannt? Multi-Character-Motion. Genau. Ja, das ist nämlich, finde ich, ganz lustig eigentlich, dass Kelpie und Ciri

mit dem gleichen System animiert sind wie Siri, die in Leute reinläuft. Aber ja, das ist eben auch ein Showcase dieses Tool-Sets, das wir jetzt eben gebaut haben, dass man eben mit anderen Charakteren

flüssig, ohne irgendwelche Pops oder dass man erst in eine Szene reingefahren werden muss oder so, sondern dass man wirklich aus dem Movement, aus dem Laufen raus in eine Animation reingehen kann, dass man jemanden umschubst und so weiter. Und das Spannende ist ja auch, dass wir jetzt

Math.ai benutzen. Das ist Unreal Engines Name für ein extrem schnelles AI-Behaviour-System, also mit dem man NPCs und auch andere Nichtspieler-Charaktere eben simulieren kann und die in ihre ganze Logik simulieren kann. Und da haben wir auch viel Arbeit geleistet, vor allem damit, um

um eben vor allem diese Menge an Interaktionen auch überhaupt verarbeiten zu können, dass wir auch Hunderte, wir haben ja wirklich auf diesem einen Marktplatz, haben wir ja wirklich 300 NPCs auf diesem ganzen Marktplatz verteilt und die alle haben durchgehend

Sind sie voll, ihr ganzes AI-Behaviour ist durchgehend angeschaltet. Wir reduzieren da nichts in dem Sinne. Das ist nicht wie bei Assassin's Creed Unity, wo man da damals so ein bisschen, das hatte ja damals beeindruckende Menschenmassen und da haben sie es irgendwie gelöst, dass je näher ein NPC sich zu dir befindet, desto komplexer wird quasi seine AI-Routine. Und ihr berechnet aber jetzt alle von diesen 300 Menschen.

Momentan in dieser Tech-Demo, ja, genau. Das ist einfach nur, um zu zeigen, wie stabil diese Systeme sind. Dass wir selbst, wenn wir nicht solche Maßnahmen ergreifen, können wir trotzdem diese 300 NPCs gleichzeitig

Interaktionen machen lassen. Der eine holt sich was zu essen, der nächste unterhält es sich mit jemandem, die nächsten tanzen, die anderen spielen Musik und dass diese ganzen Routinen auch miteinander funktionieren können. Wir haben ja auch gesehen, den Bären, der da den Fisch fängt und da reagieren ja auch ganz viele NPCs drumherum drauf, die schrecken ja so zurück.

Und das ist auch keine Szene, die jetzt so gehandcraftet wurde, sondern das ist auch ein Event von den Bären, das dann umliegende NPCs benachrichtigt, hey, hier ist gerade was Cooles passiert, du solltest vielleicht mal zu mir hergucken oder du solltest reagieren oder du solltest Angst vor mir haben. Und dann können diese NPCs darauf reagieren und das ist alles ein Event,

ein Ökosystem von Routinen, das miteinander funktioniert und das ist was, worauf ich persönlich total stolz bin, dass es auch eben mit Animationen so flüssig jetzt mittlerweile funktioniert.

Das ist ja auch immer schwer zu demonstrieren, auch gerade bei so einer Tag-Demo, wo dann eben Timings zu einem gewissen Punkt auch abgesprochen sind, das dann zu demonstrieren, was du gerade erzählt hast, weil sowas sieht man natürlich auch bei anderen Tag-Demos, dass dann jemand irgendwo vorbeikommt und es passiert was und der reagiert darauf. Aber das, was du gerade beschrieben hast, ist halt eben nochmal ein Stück was anderes, weil wenn ich das mir jetzt konkret vorstellen müsste, im Vergleich auch zu Witcher 3, wenn ich da eine Person habe, die hebt eine Kiste auf und trägt die

Eine Strecke, den ganzen Tag hin und her. Und dann kommt sie aber auch an diesem Bär vorbei. Manchmal brüllt der Bär, aber in Witcher 3 würde sie wahrscheinlich nicht darauf reagieren, weil das so zufällig ist, dass sie gerade in der Sekunde an dem Bär vorbeikommt, dass es nicht abzustimmen war. Jetzt aber wäre das durchaus möglich, dass in der Sekunde, wenn es

aufgrund der Routinen zufällig passieren könnte, dass diese Person gerade mit der Kiste an dem Bären vorbeikommt und der Bären gerade zufällig sein Brüll ausstößt, dass sie dann wirklich darauf reagiert. Ja, das finde ich halt so genial einfach, diese Interaktivität und auch Reaktivität dieser Welt irgendwo. Ich meine, das Sahnehäubchen irgendwo, der Tech-Demo für mich ist da eben dieser Moment, wenn wir in den leider armen Teufel, den Mann mit der Kiste da reinlaufen.

Siri ist im echten Leben, aber normalerweise natürlich nicht so gemein. Das wollte ich gerade sagen, das ist eigentlich der ultimative Beweis, dass es eine Tech-Demo ist, weil meine Siri hätte niemals einfach in so einem Apfeltypen umgelaufen und dann nicht mal geholfen, wieder aufzuheben.

Ich mein, sie entschuldigt sich immerhin. Okay. Aber ja, nee, aber das ist halt wirklich auch vor allem dafür da gewesen, um zu zeigen, wenn der Spieler mal Faxen macht, wenn der Spieler mal Lust hat, da eine NPC anzurempeln, dann kann der Spieler das. Und dann fallen da auch physik-simulierte Äpfel runter. Das ist auch nicht eine Animation, die jetzt speziell da platziert wurde, dass die Äpfel genau den Berg runterrollen, sondern das ist Physik-Simulation, das ist random. Mhm.

Und genauso haben wir dann diese Kettenreaktion, wir schubsen den Mann, dann fallen die Äpfel runter, dann hören die irgendwann auf zu rollen, dann kriegt ein Signal, geht dann zu den ganzen anderen umliegenden NPCs, hey, wollt ihr einen Apfel haben? Und dann...

meldet sich eben ein Kind und zwei kleine Schweine, die sich denken, oh ja, gerne. Und dann setzen sie sich eben in Bewegung und fangen an, die zu essen aufzuheben. Je nachdem, welche Animation für sie gerade in diesem Punkt eben verfügbar ist. Also müsst ihr wahrscheinlich auch irgendwie festlegen, dass wenn so ein Impuls gesendet wird, dass es quasi eine Grenze gibt, wie viele NPCs darauf reagieren können. Weil sonst würden die ja plötzlich alle losstürmen, um sich so einen Apfel zu holen. Natürlich. Wobei natürlich ich auch sagen muss, dass das ja immer eine Designfrage ist. Also im Sinn von...

Willst du, wer soll darauf reagieren, wie sollen die reagieren und so weiter. Hier in dem Fall ist es einfach nur dafür da, um zu zeigen, wir können das. Wie du genau das jetzt nutzt in deinen Tools und so weiter und so fort, was du damit anfängst, das können wir noch nicht sagen über Witcher 4, weil wir ja noch am Anfang oder gerade erst ja letzten Jahres in die Produktion übergegangen sind.

Und die Tools sind ja durchaus auch verfügbar für alle Unreal Engine Nutzer. Was ihr damit anstellt, das kann ich natürlich auch nicht sagen. Aber es ist möglich. Und das ist, finde ich, das Faszinierende und auch das Schöne daran. Ich finde es halt interessant, weil

Also man kennt das ja vielleicht aus anderen Spielen, ist es ja dann eher so, du hast vorhin das Wort gebaked benutzt. Also quasi eine Animation mit einer bestimmten Anzahl von Teilnehmern, die miteinander interagieren, ist quasi hardcoded oder gebaked. Das heißt, die spielen das dann einfach ab.

Wenn das quasi dazu das Äquivalent ein Theaterstück mit einem festen Skript ist, dann ist das, was ihr gemacht habt, im Grunde der AI-Impro-Theater beizubringen. Im Sinne von, sie senden dann sich Impulse mit, hier passiert was, hier passiert was und dann reagieren sie

natürlich immer noch entsprechend ihres Codings oder da drauf, aber sie sind halt dynamisch miteinander in der Lage, solche Situationen zu kreieren. Total. Ich meine, man kann sich so ein bisschen vorstellen, als hätte jeder so ein paar...

Schnipsel, so ein paar Auswahlmöglichkeiten, so ein paar Animationen, ein paar Voice Lines, wie auch immer, was man sich jetzt vorstellen möchte. So Auswahl. Und je nachdem, in welcher Situation ich gerade bin, wähle ich ein anderes davon aus. Deswegen, es ist nicht komplett improvisiert. Natürlich müssen wir irgendwo auch schauen, dass das Spiel irgendwann fertig wird. Aber das heißt ja dann im Grunde auch, die Tech-Themo, was du auch gerade gesagt hast,

Wir zeigen, was wir können. Wir sind committed, das zu versuchen. Aber wie es am Ende dann praktisch wirklich umgesetzt wird, ist noch nicht in Stein gemeißelt. Genau, weil das ist eben, wie wir ja auch schon so oft gesagt haben, der Grund, warum es auch eben eine Unreal Engine Demo ist. Wir demonstrieren hier nicht Witcher 4. Wir demonstrieren die Fähigkeiten der Engine.

Aber natürlich in dem Kontext, weil unser Ziel ist es, wie gesagt, Witcher 4 zu bauen, mit dem Kontext von Witcher 4. Und deswegen finden wir eben auch Assets von unserem Spiel da drin, die Charaktere, die Welt, wie die Dinge aussehen. Das sind natürlich schon alles Inhalte von Witcher 4. Genauso wie ja auch dieser Kartenbereich, also die ganzen Berge, die man dort sieht und auch das Dorf selber,

Das ist die Witcher 4-Karte. Ob jetzt alles eins zu eins übernommen wird, wie gesagt, das ist noch viel zu früh, darüber können wir noch gar nicht reden, aber dieser Kartenbereich, den wir dort zeigen in der Tech-Demo, das ist die gleiche Karte von Witcher 4 auch, die wir rübergebracht haben. Und

Da haben wir vielleicht auch einen schönen Übergang zu der einen neuen Stadt, die wir jetzt auch angeteasert haben, nämlich Lann Exeter. Das ist ja quasi das Novigrad von Kovir, das Kronjuwel, wenn man so will, der Region und

Da zeigen wir natürlich noch nicht viel und reden auch noch nicht so viel drüber. Aber ich glaube, da sollte ein bisschen was für bereits etablierte Witcher-Fans dabei sein. Ja, klar. Also man kriegt schon so einen gewissen Eindruck vielleicht, wie die Spielwelt wirkt und sieht eben diese Stadt dann am Horizont am Ende der Tech-Demo. Ich wollte noch darauf eingehen kurz, weil ich das, wenn du das so erzählst und so, das ist ja wirklich ...

Ein Feature, wo ich sage, das klingt ultra cool. Und ich verstehe auch total, dass du da so stolz drauf bist. Es ist halt einfach immer die Frage, wie viel wird man davon dann wirklich natürlich im Spiel bemerken als Spieler, wenn man da nicht drüber nachdenkt. Das finde ich immer so ein bisschen schade bei so Features, weil es ist jetzt so ein ultrakomplexes System, was da im Hintergrund arbeitet. Und ich hoffe, dass da auch die Spieler genug Situationen

werden natürlich damit, wo sie auch dann wirklich davon effektiv profitieren. Das da eben alles, weil es muss ja so viel aufwendiger sein, als wenn ihr einfach gesagt hättet, die Animationen spielen sich da jetzt einfach ab. Ja klar, aber es ist ja nicht nur das, das ist ja auch nur ein Punkt von vielen, was ja auch ein riesiger Teil dieses Showcase ist, ist einfach die schiere Anzahl an Charakteren, die wir auf diesem Plaggplatz haben können. Wir reden ja wirklich von 300 Charaktere,

auf diesem ganzen Marktplatz da. Und das zeigt einfach die Möglichkeiten, die wir jetzt auch einfach als Spieleentwickler haben, dass wir jetzt mittlerweile mehr Charaktere darstellen können als zuvor. Und dafür haben wir auch zusammen mit Epic eben ein neues eigenes Animationssystem entwickelt. Das nennt sich das Unreal Animation Framework. Ja.

Und das erlaubt uns eben wirklich auch, die Animationen auf so viele Charakteren abzuspielen. Denn Animationen, das weiß vielleicht nicht jeder Spieler, sind relativ aufwendig tatsächlich, auch für den Rechner zu berechnen. Und wir haben es eben mit Epic zusammen geschafft, dass wir so viele Charaktere sehr schön, meiner Meinung nach, animieren können, ohne irgendwelche Qualitätsverluste eingehen zu müssen.

in so einer Größenordnung. Und das, finde ich, ist auch was, was man als Spieler erfahren wird, einfach wie viel mehr jetzt auf einmal möglich ist mit diesen Tools. Da können wir natürlich auch wieder über den Wald reden und einfach die Größe davon. Und das ist einfach diese Demonstration, wie viel auf einmal geht auf einer PlayStation 5. Darum geht es uns vor allem. Es ist vielleicht sogar nicht ...

dann, wenn ihr das quasi, wenn das System so funktioniert, erst mal mit den dynamischen Reaktionen auch der NPCs, ist es dann aber nicht vielleicht sogar eine Hilfe, weil im Endeffekt ist es ja dann so, ihr müsst dann nicht mehr diese Crowd, die um die Band herumsteht am Marktplatz, komplett handanimieren, je wer was macht, sondern da war es ja wirklich so, du hast quasi die Band platziert,

Und die Leute haben gesagt, oh, da passiert was, haben sich umgedreht und dann entsteht quasi dynamisch eigentlich dieses Gruppenverhalten. Also da wiederum ist es ja dann ein Vorteil, wenn ihr eben die Vorarbeit geleistet habt, oder? Natürlich, klar. Also das sind natürlich verschiedene Herangehensweisen. Und es wird immer Momente in Spielen geben, vor allem in Quests, wo wir wirklich sehr genau alles einstellen wollen, wie, wo, welcher NPC und welcher Quest-NPC und was auch immer steht.

Aber natürlich erlaubt uns das auf einmal relativ schnell ganze Tagesroutinen für ganze Menschengruppen zu erstellen. Weil das, was auch, was

nicht so per se in 5.6 landen wird in der Unreal Engine. Aber was wir vor allem auch entwickelt haben, ist das Smart Object System. Das ist quasi die Fähigkeit, dass du an bestimmten Orten in der Welt Animationen abspielen kannst. Also du kannst dir vorstellen, eine Bank hat zum Beispiel die Sitzanimation. Und dann kann dir die Bank sagen, hier kannst du dich hinsetzen.

Und so funktioniert das dann. Und dann kannst du auf einmal deine Welt bauen mit diesen ganzen Bänken und Tischen und alles, was du da so platzieren möchtest. Und dann haben die bereits alle so eine kleine Aktivität,

schon mit integriert, die andere NPCs nutzen können. Und dann ist es wirklich einfach nur noch ein, ich platziere einen NPC und sage dem, hey, such dir mal irgendeine passende Aktivität gerade. Und dann läuft der rum, setzt sich auf eine Bank, geht an den Tisch, macht da was. Und das erleichtert natürlich auch ungemein das Bauen von großen Welten. Aber wir wollen natürlich auch nicht

Die, wie sagt man, die Granularität, die Liebe zum Detail wollen wir ja auch nicht verlieren. Wir wollen ja wirklich auch sicherstellen, dass die Welten, die wir bauen, auch wirklich sich anfühlen wie eine wirklich penibel, detailgecraftete Welt mit Charakteren, die Sinn ergeben, die grounded sind, die immersiv in der Welt leben und leben.

Und die du dort kennenlernen kannst und auch eben mit denen interagieren kannst. Was ich ja in dem Kontext immer super spannend finde, weil ich glaube, das ist auch eine riesige Herausforderung, gerade bei Fantasy-Welten wie Witcher, dass du halt eben nicht nur einen Körpertyp hast. Und das ist ja bei Animationen immer ein großer Punkt. Also wir haben es schon gesehen, ihr habt auch Kinder im Spiel. Ich musste auch sehr schmunzeln, weil man sieht in dem Gameplay, in der Tech-Demo, man sieht in der Tech-Demo, kurz...

Ein Gardisten, der ein Zwerg ist. Und das fand ich auch interessant, weil das ist nochmal eine ganz große Facette an Animationen, die eben drin sein müssen. Der Gardisten-Zwerg, der wird ja mit der Bank oder dem Tisch anders interagieren, als das zum Beispiel der bullige Mann am Anfang macht, der Ziri anspuckt. Und das ist halt, das kann er gleich installieren. Das ist wahrscheinlich auch eine Herausforderung, die ihr da noch bedenken müsst.

Ja, ich meine, in dem Fall ist es natürlich dann eher eine Kostenfrage, wenn man so will. Also die Systeme, wie man ja sieht, haben wir entworfen, dass sie das abkönnen, dass die auswählen können, je nach Body Type, ich bin schon im Englischen drin, je nach Körpertyp, spielst du andere Animationen ab und so weiter und so fort. Aber natürlich muss irgendjemand diese Animation erstellen. Und das ist natürlich dann auch eine große Aufgabe für unser Animation Team und unser Motion Capture Team. Aber

Also ich bin total happy mit den Welten, die wir gerade bauen und es ist total schön zu sehen, diese Diversität, die wir da drin haben von klein zu groß zu breit zu dünn und so weiter. Es ist einfach total schön zu sehen, wie viele verschiedene Charaktere da zusammenkommen können und auch

an der gleichen Interaktion teilhaben können, auch synchronisiert miteinander. Es gibt noch eine andere Art von Animation, auf die ich zum Schluss gerne noch zu sprechen kommen würde, nämlich Gesichtsanimationen. Das ist ja auch immer ein riesiges Thema bei so großen Rollenspielen, weil klar, wenn du halt zig

100.000 Zeilen Dialog hast, dann kann eben nicht alles immer von Hand animiert sein, wie gesprochen wird. Wir sehen jetzt in der Tech-Demo eine Cutscene. Da fand ich übrigens auch sehr schön, dass die quasi direkt vom Gameplay so in die Cutscene

Das finde ich immer ganz smooth, wenn ein Spiel sowas macht. Da kann ich sogar auch noch kurz reinhaken. Da haben wir auch noch tatsächlich ein neues Feature mitentwickelt mit Epic, das uns erlaubt, noch smoother von der momentanen Pose, in der sich Siri befindet,

in die Cutscene reinzublenden. Also, sorry, Englisch und so, aber über reinzublenden eben in die Cutscene dann in dem Fall. Und das nennt sich Stitch Track. Wen es interessiert, könnt ihr auch nachgucken, wenn ihr wollt. Aber es ist auch eine sehr coole Sache, auf jeden Fall. Spannend. Ja, also in der Cutscene waren die Gesichtsanimationen natürlich sehr, sehr, sehr, sehr gut. Ähm,

Das muss man schon sagen. Ich weiß nicht, ob das dann irgendwie Motion Capture ist, aber ihr habt auf jeden Fall auch ein System entwickelt, um generell die Gesichtsanimationen auch jetzt in, wenn jetzt in der Open World irgendwie ein NPC interagiert, zu verbessern. Also wir benutzen vor allem hauptsächlich Epics bereits existierendes System, das nennt sich MetaHuman Animator. Aber

Aber natürlich arbeiten wir auch mit Epic zusammen, um da das Bestmöglichste rauszubekommen. Und ich bin auch sehr happy, wie es momentan ausschaut. Und das ist ja auch das Spannende und auch das Schöne, irgendwo zu wissen, dass

die gleiche Technik theoretisch, selbst wenn es nicht die gleichen Animationen sind, die gleiche Technik, die wir in den Cinematics-Szenen in der Tech-Demo, die die Gesichter betreibt, die wird auch benutzt bei allen anderen Charakteren, die auch einfach nur irgendwo vor sich hin brabbeln oder dich irgendwie ansprechen und so. Natürlich sind die Animationen, wie gesagt, anders, vielleicht nicht ganz so penibel nachgearbeitet, aber es ist schon spannend zu wissen eben, dass

Jeder dieser Charaktere ist wirklich voll animiert, hat ein komplettes AI-Behaviour, das Gesicht ist animiert, die Klamotten sind animiert, die können interagieren und das auf so einer Größe, das ist...

Ja, finde ich einfach cool. Ja, man muss wirklich zugeben, die Tech-Demo macht, glaube ich, das, was ihr damit erreichen wolltet. Sie hat mich auf jeden Fall sehr gehuckt. Ich bin wahnsinnig gespannt, das dann in tatsächlichem Witcher 4 Korsett zu erleben. Ja.

Und ja, vielen Dank auf jeden Fall Julius, dass du vorbeigeschaut hast und uns da noch ein paar tiefere Eindrücke mitgeteilt hast. Das war wirklich sehr, sehr spannend.

Ja, ich meine, ich finde die Technik auch super spannend, es ist extrem beeindruckend, aber ich bin auch jemand, weil ich ja auch die Lore mag und die Welt mag, sehr cool finde, dass ihr da jetzt schon ein bisschen was zu dem Open-World-Bereich gesagt habt, wenn man sich da auffällt. Wie heißt die Region nochmal? Kovir. Kovir. Das ist die nördlichste Region momentan in Witcher und

Wie es ja auch immer so schön ist mit jeder neuen Region, kommen neue Monster dazu. Und ja, ich bin sehr gespannt, wo wir euch alle noch hinbringen werden. Weil ich weiß zumindest, dass Kovia auch eine Region ist, die durchaus eine Beziehung zu Ziri hat. Weil ich glaube, es gibt einen Roman, in dem sie sich in dieser Region auffällt. Und deswegen bin ich gespannt, was da so alles passiert.

Ja, ich meine, die Region selber ist natürlich auch recht spannend, weil sie ja auch an sich zwar sehr neutral ist, aber ja auch doch durchaus wohlhabend ist und hat man ja auch dran, also das Dorf an sich und dem wir jetzt waren, das war an sich nicht wohlhabend, aber man sieht ja auch, dass es eben ein

Umtauschplatz, ein Marktplatz ist eben für die Ärzte, für die Ressourcen, die es in dieser Region gibt. Und ja, wie gesagt, ich bin schon gespannt, euch Lanexit da irgendwann mal zu zeigen. Da freuen wir uns drauf. Vielen Dank auf jeden Fall, wie gesagt, dass du heute bei uns warst und danke dir auch, Fabiano, dass du hier mit am Start warst.

Wenn ihr da draußen noch Fragen habt, dann stellt sie einfach. Mal gucken, ob wir die vielleicht zu einem späteren Zeitpunkt beantworten können. Danke auf jeden Fall fürs Zuschauen. Ich hoffe, ihr seid jetzt auch ein bisschen schlauer und freut euch schon genauso wie wir dann auf echte Eindrücke aus The Witcher 4. Danke fürs Zuschauen.

Tschüss. Ciao, ciao. Ciao.