Musik Musik
Ganz herzlich willkommen zu diesem Talk mit Nvidia. Wir reden heute über die RTX 50er-Serie, die neuen Grafikkarten, die gelauncht wurden. Wir reden ein bisschen über den Launch, über die Marktverfügbarkeit, über die technischen Features, die die Grafikkarte mit sich bringt, aber auch die Kritik, die die Grafikkarte einstecken musste. Und dazu habe ich zwei fantastische Gäste an meiner Seite. Einmal haben wir Lars Wienand.
Er ist von Nvidia und zwar Senior Technical Product Manager. Immer noch ultralanger Titel. Und auf der anderen Seite haben wir Alex Köpf. Er ist von Gamestatech und unser Experte, was Grafikkarten und Benchmarks angeht.
Also, die 5090 und die 5080, die sind ja jetzt schon eine Weile auf dem Markt. Die wurden mit der CES 2025 vorgestellt, beziehungsweise auch drumherum irgendwie. Das hat ja Lars eben gerade schon erklärt. Die sind aber noch sehr teuer und sehr schwer verfügbar. Wie zufrieden seid ihr mit dem Launch?
Also der Launch hat eigentlich alles sehr gut funktioniert. Der Zeitpunkt ist mit Chinese New Year. Das ist immer ein Punkt, der Anfang Februar kommt. Das heißt, da sind in Asien eigentlich alle Fabs dicht und ist aber eigentlich immer eingeplant. Also generell sind wir, die Verfügbarkeit ist sehr hoch, was unsere Produktion angeht. Also wir können...
Ich kann leider keine Zahlen sagen, das ist immer das Problem. Wir sind ein öffentlich gelistetes Unternehmen an der Börse, das heißt, wir dürfen keine Zahlen nennen, außer bei dem Geschäftsbericht, was das Ganze schwierig macht. Was ich sagen kann, ist, dass wir deutlich mehr produziert haben und gechippt haben als mit der Vorgängergeneration, schon jetzt zum Zeitpunkt.
auch wenn ich keine Zahlen nennen kann. Das hilft natürlich aber nicht, wenn die Leute sehen, es sind im Handel keine Karten da. Man sieht es ja auch schon im Chat, also die Frage kommt auch immer wieder, woran liegt es dann, dass die Verfügbarkeit so schwierig ist? Nun, es wird wöchentlich kommen, Shipments, je nach Hersteller,
Natürlich auch nach Deutschland, auch in ganz Europa weit und auch in die ganze Welt. Und viele kommen gar nicht in die Shops, weil die vorbestellt sind, pre-ordert sind. Das heißt, die Chipments kommen rein und die Karten gehen sofort raus, weil die alle pre-ordert sind. Und die Karten, die man sieht, das sind spezielle oder manche Modelle, die halt zu sehr hohen Preisen angeboten werden,
Und das macht der Handel halt, weil die Nachfrage entsprechend hoch ist. Das hat mit nichts zu tun? Das können wir leider überhaupt nicht beeinflussen. Der einzigste Preis, den wir beeinflussen können, ist von unserer Fondus Edition, die von vornherein sehr limitiert ist. Ansonsten verkaufen wir Kits, GPUs, Speicher an die Partner oder manchmal auch mit Boards.
Je nachdem, also ein Board-Partner, sei es ein Asus, MSI, Gigabyte, die kaufen bei uns die GPU und Speicher als Kit, bauen dann die GPU und shippen die. Und was danach passiert...
Da haben wir überhaupt keinen Einfluss drauf. Das ist auch nicht unser Sales. Und wir können auch nur sagen, klar, wir haben eine unverbindliche Preisempfehlung. Das ist der Preis, den wir gerechnet haben. Das sagt, okay, da verdienen wir, da verdient der Handel, da verdient jeder und jeder ist glücklich. Aber wenn ein Produkt sehr begehrt ist, das ist halt freie Marktwirtschaft, dann steigt der Preis. Und wenn jetzt jemand sagt, naja, die wäre nicht verfügbar, wenn das an den Preisen sieht man, dass
Leider, dass der Bedarf sehr hoch ist und alles, was reinkommt, und es kommen wie gesagt wöchentlich viele tausende Karten überall rein, da sind wir außen vor, da können wir nichts machen. Jetzt fragte jemand im Chat, wo kann man denn pre-ordern? Noch nie gesehen. Und anscheinend ist es nur in Amerika der Fall. Warum ist es nicht in Deutschland so?
Oder geht es auch in Deutschland? Das ist auch in Deutschland. Wie genau, weiß ich jetzt nicht. Ich muss sagen, ich habe mir schon lange keine Grafikkarte mehr selber bestellt. Da bin ich im Vorteil. Aber das geht über die Distribution, über den Channel. Wie gesagt, da habe ich jetzt keinen Einblick rein. Ich weiß, ich höre von, wir haben natürlich auch
Sales- und Marketingleute, die dann mit den Partnern zusammenarbeiten und das alles koordinieren. Aber da haben wir wirklich leider wenig Einfluss drauf. Und es ist halt eben, wie gesagt, auch nicht so, dass wenn man sieht, die Preise sind hoch, dass wir jetzt, wir verdienen mit der Grafikkarte keinen Cent mehr, egal für welchen Preis, die am Ende
über die Handelstheke geht, da sind wir vollkommen raus. Alex, wie hast du den Launch wahrgenommen? Also jetzt auch, was die Marktverfügbarkeit angeht, vielleicht auch im Vergleich zur Vorgängerversion? Da müsste ich jetzt mal überlegen. Also könnte schon sein, dass es besser war, schlechter nicht, würde ich sagen. Aber ja, was habe ich mitgekriegt? Ich habe natürlich durch die Tests bedingt sehr viel die Kritik der Menschen mitgekriegt.
die halt gehofft haben, okay, irgendwo natürlich zur UVP eine Grafikkarte zu kriegen und dann letzten Endes gesehen haben, okay, was weiß ich, eine 50-90-
Kostet statt 2.330 auf einmal 3.000, 3.500 und mehr. Da gibt es ja ganz eigenartige Konstruktionen. Da werden ja teilweise von den AIBs dann quasi Grafikkarten plus irgendwie Peripheriegeräte verkauft. Und du zahlst da 6.000 Dollar dafür. Die Leute kaufen es trotzdem, weil das ist das andere und so. Ja, aber wie habe ich den Launch dann erlebt?
Ja, schwierig. Natürlich. Aber ich sehe auch, es ist halt ein Produkt, das weltweit gefragt ist. Ja.
Da ist es, glaube ich, per Definition fast unmöglich, die Nachfrage zu bedienen. Also es stürzen sich auch alle drauf. Die Leute wollen halt zum Fall des Testembargos am besten schon bestellen. Das ist meistens ein Tag früher. Da liegt wahnsinnig viel Interesse drauf und entsprechend groß ist natürlich dann die Enttäuschung, wenn die Leute leer ausgehen. Dazu kommen dann noch die ganzen Scalper-Bots und was weiß ich alles, was man heutzutage noch hat. Das macht es natürlich noch schwieriger,
Klar, also da bin ich irgendwo hin und hergerissen. Ich kann beide Seiten verstehen. Ich kann die gut verstehen. Ich persönlich, und das soll jetzt nicht irgendwie beschwichtigend klingen, ich würde halt immer den Leuten raten, auch im privaten Umfeld meines, na ja, ihr werdet ja wahrscheinlich nicht unbedingt jetzt eine neue Grafikkarte brauchen, außer die alte ist natürlich kaputt oder so. Einfach ein paar Monate warten, bis die Stück, bis die größeren Stückzahlen verfügbar sind, die erste Welle so abgeabbt ist und sich die Preise normalisieren. Mhm.
Aber klar, natürlich, man wünscht sich grundsätzlich natürlich zum Launch, alles soll zu Uwe Pieser Verfügung sein. Das kann ich schon nachvollziehen, das ist es nicht. Pyjama fragt, warum wurde die 4090, 4080 so früh gestoppt, obwohl man wusste, dass es nicht ausreichend 50er-Karten geben wird zum Launch? Naja gut, den letzten Teil kann ich sagen, das stimmt so nicht. Das war, wusste das...
Oder dass es nicht genügend Verfügbarkeit gibt. Es war auch schon so, dass eine 4090 auch schon im Dezember schwer zu bekommen war. Einfach auch, weil der Bedarf da höher ist. Und wir haben natürlich irgendwo eine Übergangsphase. Was wir vermeiden wollen, ist zum gewissen Zeitpunkt, dass zu viel Ware von dem früheren Produkt noch im Markt ist. Weil die Ware wurde ja schon bezahlt.
Das heißt, die hat auch einen gewissen Preis, die dann auch die ganze Handelskette bezahlt. Die Partner zahlen das, die Distribution zahlt das, die E-Taler zahlen das. Und plötzlich ist die aber theoretisch weniger wert, weil es ja einen Nachfolger gibt. Und das heißt, es ist ganz natürlich, dass da auch die Bestellungen zurückgehen, sobald bekannt wird, es kommt eine neue Generation. Wenn wir das zu früh ankündigen,
fängt das schon sehr viel früher an. Das heißt, du kannst keine perfekte Transition machen. Du versuchst natürlich den Supply, also den Übergang möglichst reibungslos zu haben. Aber dann kommt natürlich dann auch die News dazu, dass
jetzt Nachfolger kommt, dann wird auch viel weniger geordert, auch vom Handel. Das kommt dann viel weniger in den Handel rein. Wenn wir dann noch entsprechende Chips hätten, dann hätten wir auch das Problem, ja, wer nimmt jetzt diese Chips, die noch da sind? Was macht man damit? Also das ist alles ein sehr, sehr komplexes Thema. Und das Ganze muss auch viele Monate im Voraus geplant werden. Also man kann nicht einfach sagen, ja, produziere ich das einfach weiter. Das ist dann so wie...
Jetzt auch bei anderen Produkten, Autos oder sonst was ähnlich, dass ich da einfach meine Produktionsketten haben muss. Und wie gesagt, wir verkaufen ja, wenn man es jetzt zum Beispiel mit Telefonen vergleicht oder sage ich jetzt mal einen bestimmten Telefonhersteller, der das Telefon selber baut, selber vertreibt und selber verkauft. Wir verkaufen ja über Partner, über Bordpartner. Da ist eine Riesenkette dahinter und
Das geht nicht ganz so einfach. Das ist wirklich sehr komplex. Ich meine, wir haben das schon vielfach gemacht und wie gesagt, ich kann verstehen, dass die Leute denken, es gibt zu wenig oder wie man gelesen hat, manche meinen, es wäre ein Paper-Launch. Das ist es definitiv nicht. Aber
Aber ich kann verstehen, dass man sich darüber ärgert. Ich habe auch selbst Freunde, die mich anpingen und sagen, du kommst so günstiger an eine Karte ran oder auch zum normalen Preis. Ich sage, ich habe da keinerlei Einfluss drauf, weil das alles über die Partner geht. Wir können doch nicht mal für uns selber, wenn ich mir selber eine Grafikkarte kaufe, muss ich sie mir auch ganz normal im Handel kaufen, weil wir auch kein Mitarbeiterprogramm oder sowas haben, weil wir die Kartenkarte
die Karten ja gar nicht selber herstellen, außer jetzt die Founders, die halt dann aber limitiert sind. Und da müssten wir uns auch strecken, dass wir dann privat eine bekommen. Die nächste Frage ist wieder von Pyjama. Zu welchem genauen Zeitpunkt, ich hätte gerne eine Uhrzeitangabe von dir, wird der Markt mit ausreichend Stückzahlen der 50er, 5080 versorgt werden?
Also ich weiß, auch wenn ich die Zahlen nicht nennen darf, was geschippt wird wöchentlich, ich kann den Bedarf halt nicht einschätzen. Weil der Bedarf ist so groß, wie gesagt, es kommt Ware rein und die geht dann raus. Aber ich bin auch kein Zeltmensch. Also ich kann da auch nur, was ich von den anderen höre. Was würdest du schätzen? Ich nehme das mal zurück mit der Uhrzeit. Es ist schwer.
Ich bin überrascht, dass es nicht schon längst passiert ist, dass einfach mehr Inventory, wie man es nennt, also mehr Lagerware dann da ist. Dass es immer noch so ist, dass es kommt rein und geht alles sofort raus. Das hat mich jetzt überrascht, mich selber, ehrlich gesagt. Hatten wir so jetzt noch nicht, aber wir sind ja auch nicht die Einzigen. Ich meine, unsere
Freunde von der anderen Fraktion, denen geht es ja genauso. Die haben auch und versuchen das zu dem Preis rein, aber das ist der Handel und du kannst dem, wir leben halt in einer freien Marktwirtschaft und wir können dem Handel nicht vorschreiben, für wie viel er die Karte zu verkaufen hat.
Ich merke, dass das Thema hier gerade auch mit den Fragen, dass euch das sehr beschäftigt. Und ich werde noch gleich eine Frage dazu stellen. Wir haben noch so viele andere Themen, wo wir hier weitermachen wollen. Ich gehe aber mal eure Fragen hier durch, weil ich die auch ganz spannend finde. Asics A fragt, welche Maßnahmen wird Nvidia ergreifen, um ein erneutes und massenhaftes Aufkaufen durch
und Bot-User zu den Releases zu verhindern. Ich denke insbesondere an den deutschen 5090er Founders Edition Sale. Da versuchen wir jetzt...
Wir haben in den USA jetzt ein Lottery-System, was wir testen. Das heißt, man kann sich dann bewerben. Also Lottery so ein bisschen wie bei Nike, glaube ich, hat das auch? Genau. Weil wir wissen ja, die Karten sind limitiert. Und wir haben, egal was wir versuchen und mit welchen Partnern, irgendwas geht scheinbar dann schief und es ist nicht so, wie es geplant ist. Und jeder findet es unfair und egal, wie man es macht, ist es verkehrt. Und
haben jetzt, probieren wir das jetzt in den USA aus. Da müssen wir auch lernen, weil wir wissen, es ist ein limitiertes Produkt, eine limitierte Edition. Und da kann ich mich drüber bewerben, über wie das dann in Europa nächstes Mal dann laufen wird. Da sind wir das gerade am Ausarbeiten. In den USA ist das so, dass
ich mich dann einfach bewerben kann über einen Nvidia-Account oder je nachdem, Communities, das sind mir jetzt alles, da sind die verschiedenen Teams gerade am Schauen, wie kann das möglichst fair gemacht werden, wie kann das möglichst transparent gemacht werden. Wird sicherlich auch nicht alle glücklich machen, weil verschiedene dann sich auch beworben haben und dann trotzdem keine bekommen und andere dann doch oder dies oder jenes. Das ist dann schwierig, was das Scalping an sich angeht, das ist halt
Jetzt im E-Tail, wenn halt ein E-Tailer, ein Händler, wenn einer zehn Karten bestellt und er gibt ihm auch zehn Karten, dann liegt das halt auch an dem Handel, an den Bedingungen zu sagen, nee, ich gebe halt nur pro Person eine Karte raus. Wenn ich das rausgebe, wenn ich eine Großbestellung rausgebe, ja hier 20 Karten, das ist halt der Handel dann selber, das ist dann wieder der Händler, ob
der sich da selber eigene Policies zurechtlegt oder nicht, das können wir da nicht beeinflussen. Wir können das halt nur mit der Founders
Und die ist halt von vorne weg ein limitiertes Stück, weil es für uns ein Technologiedemonstrator ist. Kannst du da Zahlen nennen, wie limitiert die ist oder nicht? Nee, Zahlen kann ich da nicht nennen. Leider nicht. Dachte ich mir schon fast. Zahlen sind immer schwierig. Zahlen sind immer schwierig. Bei vielen notierten Unternehmen. Ich würde mal sagen, wir gehen mal zum nächsten Thema weiter. Ich weiß, ich sehe hier die ganzen Fragen noch von euch, aber ich...
Teilweise doppeln sich die Themen hier so ein bisschen. Teilweise haben wir es schon angesprochen. Deshalb würde ich mal sagen, wir gehen mal so ein bisschen auf die Leistung der Grafikkarte ein. Es gibt ja Kritik an der nativen Rechenleistung. Also manche sagen ja, dass die RTX 5080 sei eigentlich so eine 5070. Die 5070 ist eigentlich eher eine 5060. Und wie stehst du dazu? Oder NVIDIA, was sagt ihr dazu? Naja, die erste Frage ist, was ist nativ?
Was ist native Leistung? Und wo will ich damit hin? Weil das Hauptproblem, also unsere, wir reden ja vom Neural Rendering. Das heißt...
Es gibt das Problem bei den Chips, dass die Chips nicht unendlich größer werden können. Und der Hintergrund ist der, dass wir haben jetzt schon bei dem 202, bei einer 5090, kommen wir schon langsam an die Grenzen ran, wie groß wir diesen Chip auf dem Dime machen können. Und wir haben jetzt, also das klassische Beispiel ist, wir nehmen ein Spiel wie Cyberpunk mit Past-Rating, 4K-Programm,
Mit einer 4090 habe ich 20 FPS. Mit einer 5090 habe ich dann 27 FPS. Das ist dann, wenn die Leute sagen, ja, nicht genug native Rechenleistung. Na gut, das ist prozentual 40% schneller, eine 5090 als eine 4090, nativ. 40% ist eine Nummer, aber es reichen die 27 FPS. Nein.
Die reichen nicht. Wenn ich jetzt sage, ich will es verdoppeln, 100% mehr Leistung, dann bin ich bei 40 FPS. Das ist immer noch nicht gut. Ich will irgendwo 60, 80 FPS in 4K. Das heißt, der Chip, den ich dann baue, den kann ich mir gar nicht mehr bauen. Und das ist das Problem, was wir haben, dass wir mit der Prozestechnologie an Grenzen kommen.
dass wir die Chips nicht mehr skalieren können. Wir sagen offiziell, Moore's Law ist tot. Moore's Law war aus der CPU-Geschichte. Die Leistung verdoppelt sich alle zwei Jahre und der Preis halbiert sich alle zwei Jahre für die Transistoren in der Fertigung. Es gibt da auch so eine schöne Grafik dazu, die ich, vielleicht kann die Regie das raussuchen. Ich habe sie leider nicht reingefügt, weil ich jetzt nicht wusste, dass wir darüber reden. Aber ja, das sagt mir auf jeden Fall was.
Alex, würdest du sagen, dass die Zeit von großen Entwicklungssprüngen, wie wir sie vielleicht noch vor fünf, sechs, sieben Jahren oder noch weiter erlebt haben, dass die vorbei ist?
Ich würde sagen, bei den Entwicklungssprüngen ist es ein bisschen anders, weil es kommen Entwicklungen in anderen Bereichen. Aber wenn man das auf die reine Rasterleistung bezieht, die ja viele damit meinen, dann sind die Sprünge wirklich jetzt wohl kleiner geworden. Oder auch Leistungssprünge. Leistungssprünge sind jetzt ein bisschen kleiner geworden. Und meine Auffassung ist, und ich habe mich damit schon ein bisschen beschäftigt, die Zeit der regelmäßigen großen Sprünge, ich glaube, die ist einfach vorbei. Mhm.
In dem Punkt, weil einfach man stößt da schon längst, das ist nicht so, dass man in ein paar Generationen vielleicht an physikalische Grenzen stößt. Man stößt da jetzt schon an physikalische Grenzen. Du hast da teilweise Isolationsschichten bei den Transistoren, die sind zwei Nanometer dick. Da tunneln einfach, also da gibt es sogenannte Leckströme.
Die zu kontrollieren ist relativ schwierig. Es gibt verschiedene Tricks, die wir in künftigen Generationen sehen werden. Also sowas wie Gate All-Around Transistors und so weiter und so fort. Da kommt sicherlich noch was.
Aber die großen Sprünge allein durch die Verkleinerung der Strukturbreiten, also egal, was wirklich draufsteht, ob es noch 4 Nanometer draufsteht oder so weiter, die werden nicht mehr so kommen. Also das ist
Mit der aktuellen Technologie sind wir schon ziemlich ausgereizt. Also ich glaube persönlich, wenn wir die 6000er-Generation vielleicht eine sein, weil ich behaupte jetzt einfach mal, also meine Schätzung ist, man wird da auf TSMC zwei Nanometer wechseln, wenn die entsprechenden Fertigungsanlagen gebaut sind und ihr Ausbeut ja auch entsprechend da ist und so weiter. Das wäre so mein Tipp. Da könnte ich mir vorstellen, dass nochmal ein Sprung kommt.
Aber ich habe mir auch Daten angesehen, also wie allgemein das in der Chip-Industrie prognostiziert wird. Also weit bis 2040 gehen da die Prognosen teilweise. Die gehen alle davon aus, dass das spätestens ab 2027, 2028 komplett abflacht. Und dann siehst du halt einfach nichts mehr. Du bist ja jetzt schon, wenn man sich mal so einen Transistor und sich das alles anschaut, die einzelnen, also wenn da draufsteht 4 Nanometer, okay, da ist vielleicht irgendwas 4 Nanometer, aber es ist ja nur ein Name. Da
Tatsächlich sind die einzelnen, was weiß ich, Gatelängen und was weiß ich, was es alles gibt oder die Abstände zwischen den einzelnen Gates, das ist eigentlich so eine Messgröße. Das ist man teilweise auch schon bei 10 Nanometer. So eine Gatelänge ist typischerweise vielleicht 10 Nanometer, sage ich jetzt mal. Und bei 10 Nanometer, das ist nicht einfach nur irgendwie, sondern da kannst du halt schon, da siehst du halt schon einen Atom daneben. Also wirklich. Und da ist man halt. Und das ist halt die Grenze, die kannst du nicht mit der aktuellen Technik unterschreiten. Ja.
Es gibt sicherlich vielleicht andere Möglichkeiten, als Silizium herzunehmen, Molybdenum, Sulfid und sonst irgendwas. Und keine Ahnung, habe ich vorher auch schon gelesen, irgendjemand hat das geschrieben, photonische Transistoren, die potenziell viel schneller schalten können, weil sie einfach extrem wenig Energieverbrauch haben. Aber da ist man halt einfach, das steckt drin.
sagen wir mal, im besten Fall in den Kinderschuhen, würde ich jetzt mal behaupten. Aber ich habe ja einheitlich gesagt, die großen Entwicklungssprünge, die bleiben ja nicht da aus. Es gibt ja Entwicklungssprünge, also gerade im Bereich der KI. Also Nvidia geht halt jetzt den Weg der KI. Wahrscheinlich war es einfach die logische Entscheidung, da hinzugehen.
Und da gibt es ja sehr wohl eine Entwicklung. Also man sieht bei DLSS eine Entwicklung, also jetzt von dem einen KI-Modell auf das nächste, das eine einfach deutlich bessere Bildqualität ermöglicht und dadurch wieder im Umkehrschluss, obwohl es eigentlich mehr Leistung kostet, wiederum
wieder viel mehr Leistung ermöglicht, weil man einfach eben diese andere DLSS-Modi wählen kann, wie ausgeglichen oder eben Leistung, Ultraleistung, haben wir jetzt noch nicht probiert, das ist mir zu krass, aber probiere ich nochmal aus. Und ja, da tut sich ja einiges. Multiframe Generation, okay, das ist eine Technologie und dann kommen ja noch die ganzen Neural Shaders und
Neural Texture Compression und so weiter und so fort. Also da kommt einiges auf uns zu, was, und das glaube ich persönlich, die Karten relativ gut reifen lassen wird. Also ich weiß nicht genau, wann die Spiele, ich meine, das muss ja erstmal in den APIs, sprich Vulkan oder DirectX umgesetzt werden, bis es dann mal in einem Spiel ist und so weiter. Da dauert es sicherlich noch eine Weile, bis Entwickler sich auch daran gewöhnt haben und so weiter. Aber
Das könnte schon sein, dass man da in zwei Jahren dann Spiele sieht und dann ist man froh, dass man so eine Karte hat und sich einfach Leistungssteigerungen oder bessere Bildqualität mal ergeben. Du hast es gerade schon angesprochen, DLSS 4, Multi-Frame-Generation, nur Renderings und so weiter. Was ist DLSS 4 oder was macht es so besonders, Lars? Mhm.
Okay, also ich hole ein bisschen aus. Weil wir hatten ja eben das Beispiel gehabt mit den 20 FPS auf einer 4090, mit den 27 FPS auf einer 5090. Was wir mit DLSS
Mit Multiframe-Generation packen wir verschiedene Technologien dazu. Mit Frame-Generation generieren wir zusätzlich ein Zwischenbild. Zwei gerenderte Bilder. Mit Multiframe-Generation können wir bis zu drei AI-generierte Bilder anhand von zwei gerechneten Bildern generieren. Wie gut...
Das funktioniert, hängt erstmal von der sogenannten Input-Frame-Rate ab. Das heißt, ich kann, wenn ich jetzt, sage ich mal, mein Beispiel mit 27 FPS habe und da Multi-Frame-Generation einschalte, dann spielt sich das Spiel trotzdem wie 27 FPS. Das ist nicht das, was ich haben möchte. Das heißt, was ich zuerst mache, ist, ich nehme erstmal DLSS Super Resolution und
Mit dem AI-Upscaling in dem Sinne, wo wir schon gesagt haben, dass das mit einer sehr, sehr guten Bildqualität möglich ist. Über das AI-Modell, was wir haben, haben wir jetzt das verbesserte Transformer-Modell noch gemacht. Und dann kann ich aus 27 FPS, weil ich in der kleineren Auflösung rendere und das dann hochskaliere sozusagen über die AI. Es ist eigentlich neu generieren, keine reine Skalierung.
Und dann lande ich irgendwo bei, sage ich mal, 70, 80 FPS mit DLSS. Und dann mache ich die Frame Generation dazu und komme dann in dem Beispiel, was wir eben hatten, 27 FPS, komme ich dann in 4K auf 270 FPS. In 4K mit Past Racing in Cyberpunk. Brauche ich 280 FPS in 4K? Hängt vom Monitor ab, wenn ich ein 4K 240 Hertz habe. Mhm.
dann schon. Wenn ich einen 4K 144 Hertz habe, reicht mir vielleicht zweifach Multiframe Generation. Das Schöne an den Technologien ist, es zwingt einem ja keiner irgendwas auf. Es gibt für alle die Optionen, verschiedene Möglichkeiten auszuwählen. Das ist das, was wir alle am PC lieben und auch am PC Gaming lieben. Sonst würde ich auf einer Konsole spielen, die mache ich an und spiele. Und hier kann ich meine Settings einstellen, auf mein System mit den Monitoren das optimieren.
Und dazu kommt, wenn wir Multi-Frame-Generation oder Frame-Generation aktivieren, haben wir auch immer NVIDIA Reflex aktiv. NVIDIA Reflex ist unsere Latency-Reduction-Technologie. Das heißt, wir reduzieren die Input- oder die komplette System-Latency-Technologie.
Zumindest den Teil, den wir beeinflussen können mit der Grafikkarte. Und damit ist der Input-Lag oder die komplette Reaktionszeit vom Spiel, von meinem Input bis das Spiel reduziert, teilweise um die Hälfte reduziert. Je nach Spiel, mal mehr, mal weniger. Hängt an vielen Komponenten. Und damit gleichen wir zum Teil...
den Nachteil von Frame Generation aus, nämlich, dass sich durch Frame Generation die Latenz nicht verringert. Und das ist ein Kritikpunkt, den viele haben. Sagen normalerweise, je höher meine FPS, meine Framerate ist, umso geringer wird meine Latenz. Weil, kann man jetzt mal grob erklären, wenn ich auf meine Maus klicke, dann geht das von meiner Maus
über USB an meinen Rechner, da läuft ein Treiber, der Treiber sagt Windows, hey, es gab hier einen Mausklick, das kostet schon ein paar Millisekunden. Dann läuft das auf Windows, das Spiel läuft im Hintergrund, nimmt diesen Input, verarbeitet den über die CPU, wird dann in der Game Engine irgendwie verdröselt und wird dann ein neues Bild generiert, das neue Bild kommt an die Grafikkarte, die Grafikkarte rendert es, macht es zum Display-Output und geht dann an den Monitor. Je nach Spiel dauert das
60, 70, 40, 30 Millisekunden. Jedes Spiel ist anders. Jedes Spiel hat eine andere Latenz. Und wir können halt diesen Teil vom Rendering optimieren, um das dann auszugleichen. Und normal ist es so, je höher die FPS sind, umso kleiner ist die Renderzeit, weil die Millisekunden
Also wenn ich von 60 FPS habe ich 16 Millisekunden, bei 120 nur noch 8 Millisekunden. Das heißt, je höher meine FPS, automatisch wird meine Latenz geringer. Deshalb wollen E-Sport-Spieler mit 300, 400 FPS spielen, dann haben sie 2, 3 Millisekunden Latenz. Das ist wie grob. Bei Frame Generation reduziert sich das natürlich nicht, weil es werden zwar mehrere Frames generiert, die sorgen für auch...
Für mehr Smoothness, also für ein softeres Bild, für eine bessere Darstellung auf dem Bildschirm. Aber die Latenz wird nicht reduziert. Und der große Vorteil, den wir haben, den man aber natürlich dann auch sich aussuchen kann, wie ich den benutze. Wenn ich sage, ich benutze jetzt erstmal die LSS Super Resolution, habe meine 70, 80 FPS, dann mache ich Reflex an, reduziert mir die Latenz nochmal um die Hälfte.
dann habe ich eine super gute Latenz. Und wenn ich dann Frame Generation aktiviere, dann habe ich pro Faktor rund drei Millisekunden, die on top kommen auf diese Latenzen. Aber ich spiele insgesamt mit Frame Generation auf einer sehr geringen Latenz. Natürlich ist sie mehr wie mit Super Resolution mit Reflex ein. Aber wenn ich Reflex ausschalte, habe ich eine deutlich höhere Latenz.
Also wir haben da Beispiele und ich habe die Zahlen jetzt nicht dabei. Aber wer sich wirklich mal den Spaß machen will, soll mal spielen ohne Reflex mit Super Resolution und dann Reflex einschalten und Multiframe Generation. Und ich habe teilweise eine geringere Latenz mit Frame Generation oder Multiframe Generation als ohne Reflex. Dann sagt natürlich der eine, ja, aber mit Reflex ist die Latenz geringer.
Ja, aber so kann ich ja spielen. Wer das mag, kann natürlich so spielen. Es fängt einen niemand an.
die Multiframe-Generation einzusetzen. Aber wenn ich damit happy bin, sage ich mal, ich spiele mit 70 FPS in Cyberpunk und sage, ja, die Latenz ist gut, das Spiel fühlt sich gut an, habe aber ein 240-Hertz-Display, dann schalte ich es ein und habe dann ein deutlich flüssigeres Bild. Und da kommen wir dann, da war dann die Eingangsfrage noch, was machen wir noch mit Multiframe-Generation? Da machen wir noch sehr viele Sachen im Hintergrund. Wenn wir diese Zwischenbilder rechnen,
Dann haben wir ein Flip-Metering eingebaut. Was ist das? Flip-Metering bestimmt, sagen wir mal, ich mache jetzt einfach mal eine blöde Rechnung, 16 Millisekunden, 60 FPS. Ich würde da jetzt Bilder dazu einsetzen. Das heißt, ich habe ein 16-Millisekunden-Fenster. Das heißt, alle 4 bis 5 Millisekunden mache ich diese Zwischenframes rein und teile die so auf, dass sie möglichst gut
in diesem Flow, der von meiner Bildrate abhängt, genau am richtigen Zeitpunkt dargestellt wird. Das konnten wir bei der 40er-Serie noch nicht mit Frame Generation. Da wurde der Frame gerendert und gezeigt und da hatten wir keinen Einfluss, wann
der genau in der Pipeline angezeigt wird. Und damit konnte es ein bisschen, hat sich dadurch nicht so smooth angefühlt, weil man hatte zwar eine höhere FPS, aber irgendwie war es manchmal ein bisschen holprig, je nach Spiel. Und das haben wir jetzt geändert, dass wir
das genau bestimmen können, wann diese Frames gezeigt werden und damit ich auch eine absolut smooth Frame-Rate habe. Und du hast ja eben gerade die 40er-Serie schon angesprochen. Ist es denn denkbar, dass Multiframe-Generation dann für die 40er-Serie auch freigeschaltet wird oder sind da die Kerne nicht stark genug? Das erforschen wir gerade. Also wir haben es jetzt optimiert zum Launch für die 50er-Serie.
kommt, es muss natürlich schnell genug sein. Das ist ja auch die Crew bei Frame Generation, wenn ich ab einer gewissen Bildwiederholrate lohnt sich, bringt es nichts mehr, weil ich habe natürlich eine gewisse zwei bis drei Millisekunden, die es braucht, um diese Frames zu generieren über AI. Wenn das darüber hinaus wächst, wird es natürlich ein bisschen schwierig. Und
Wir schauen uns das jetzt an. Technisch ist es natürlich denkbar, wie die Experience dann ist. Gerade wenn es dann, sag ich mal, auf einer 40, 90 sicherlich denkbar. Auf den kleineren Karten wird es dann irgendwann ein bisschen schwieriger. Von der Lächelnleistung her. Aber wir versprechen dort nichts, aber wir schließen auch nichts aus, was das angeht. Klar.
Captain T. Jack fragt, wie passen die geringen VRAM-Kapazitäten zu den neuen Features? Also Raytracing, Frame Generation, Transformer-Model brauchen alle mehr Speicher. Transformer, also die Frame Generation, die neue, braucht sogar weniger Speicher. Wir haben das umgestellt, das Modell, braucht weniger VRAM. Und generell ist es so,
dass das Thema Speicher dann aufkommt, wenn ich entsprechende Grafikfeatures extrem hoch setze in den Spielen. Zum Beispiel Indiana Jones ist so ein Fall, wenn ich den Texture Cache auf extrem setze, dann haut mir das den Speicher voll, habe aber eigentlich damit keinen wirklichen Vorteil im Gaming oder im Spiel oder in der Bildqualität, sondern es überfordert in dem Fall einfach, das Setting ist einfach zu hoch. Ähm,
Und wir bieten halt, also wir designen halt die Karten, dass es passt von der Performance her, von der Speicher-Performance. Lieber schnelleren Speicher, dann haben wir die Features wie DLSS dazu. Und die
Und Speichergrößen passen eigentlich perfekt zu dem Einsatzzweck. Wer unbedingt meint, er braucht mehr VRAM, haben wir dafür auch entsprechende Produkte im Portfolio. Zum Beispiel bei einer 5070, mir reichen die 12 GB nicht, ich möchte 16 haben. Wir haben eine 5070 Ti im Angebot, die das dann entsprechend auch bietet. Ja.
Und wir haben auch viele Beispiele, wir sehen das ja auch intern, dass manche, ich kann natürlich Settings fabrizieren, wo ich sage, okay, irgendwann hat die Karte keinen Speicher mehr. Aber dann spiele ich es so oder so auf Bildraten, die bei 7, 8 FPS liegen und mit mehr Speicher bei der gleichen Rechenleistung der Karte, weil es ist ja auch,
Keine 5070 ist keine 5090 vom Chip gesehen her. Auch mit mehr Speicher würde sie nicht wahnsinnig viel mehr FPS schaffen. Und selbst wenn sie 11 oder 12 schaffen würde, wäre es immer noch nicht spielbar. Das heißt, ich muss einfach smartere Settings anwenden und eben auch Features wie DLSS verwenden. Wenn ich jetzt sage, okay, ich habe eine 5070, will 4K spielen, ist absolut problemlos möglich. Ja.
Okay. Alex, du hast vorhin, glaube ich, nur Shaders angesprochen. Ja. Ich glaube, das Wort ist gefallen. Ich erinnere mich dunkel daran. Ich habe das schon mal angerissen, das stimmt. Magst du einmal erklären, was für dich die Vorteile davon sind? Sowohl was Grafik als auch Performance angeht. Das ist noch schwer zu sagen. Wir haben es ja noch nicht in Einsatz ziehen. Aber der große Vorteil ist, dass quasi diese Shader-Funktionen
die auf diesen Shader-Kernen ausgeführt werden. Typischerweise, die können jetzt auch auf die, ich kann es nicht korrigieren, wenn ich es falsch verstanden habe, aber die können jetzt auch auf die Tensor-Kernen zugreifen. Und dort eben dann kleinere KI-Modelle mit einbauen, die halt bestimmte Sachen beschleunigen noch zusätzlich. Genau.
Und das ist dann schon vorstellbar, dass das erstens mal die Schädelkerne entlastet und dadurch mehr Rechenleistung wieder frei wird für die, wie wir vorhin gesagt haben, in Anführungsstrichen native Rechenleistung. Und zum anderen, also geht es ja einerseits um die Text-Compression, aber da gibt es auch andere Sachen. Also zum Beispiel, das ist relevant bei Texturen zum Beispiel und generell Detailgrad von Objekten und so weiter. Das heißt...
Die Möglichkeit besteht, dass wir viel hoch aufgelöstere Texturen sehen, viel realistischere Texturen, die gleichzeitig vielleicht sogar weniger Speicher verbrauchen und noch zusätzlich...
durch andere Funktionen, die auf den Neuron-Shadows ausgeführt werden, auch noch mehr Leistung sehen. Also das ist schon potenziell alles möglich. Ich bin sehr gespannt drauf, wie es ist, wenn sie mal kommen. Ist natürlich jetzt schwer zu sagen, wir haben jetzt noch kein praktisches Beispiel dafür, gibt es noch nichts, aber es ist...
Ja, schon mal wieder geht der Weg konsequent weiter. Es klingt auf jeden Fall ziemlich interessant, finde ich. Also aus technischer Sicht bin ich natürlich immer wahnsinnig begeistert von solchen Sachen. Muss ich mal ein bisschen aufpassen, dass ich nicht zu sehr gehypt werde. Aber wenn ich sowas lese, sage ich mal, ja, ja, es klingt super. Mhm.
Es ist dann oft so natürlich, dass eine Praxis vielleicht nicht ganz so gut ist, wie man sich zunächst mehr erhofft hat, aber oftmals ist es sogar noch besser als das, was man sich erhofft hat. Wer weiß, was auf uns zukommt. Ich sehe es auf jeden Fall als großen Fortschritt, weil gerade, weil ich vorher schon gesagt habe, ich spiele Monster Hunter Burls und da ist wahrscheinlich die Texture Compression ein Problem.
Warum dann oft die Leute, die das Spielen kennen, vielleicht die Texturen laden, recht spät auf dreien, das hieß das richtig und das liegt vermutlich daran. Und wenn man da, das wird ja quasi von, da bin ich mir nicht ganz sicher, von der KI auch entpackt, mehr oder weniger, glaube ich, oder?
Da täusche ich mich da. Später im Binaural Shade, meinst du? Ja, genau. Oder einfach definiert. Also die Möglichkeiten sind halt vielfältig. Also ähnlich, was mit vielen AI-Bildgenerierungsmodellen möglich ist. Ja.
Generell kann man sich einen Grafikshader so vorstellen, dass dort Effekte beschrieben sind. Das war ja die große Neuerung mit den GPUs, dass das alles programmierbar ist. Das heißt, ich kann mir eine Bumpmap, eine Oberflächenrauheit, das kann ich mir programmieren, den Effekt, wie der Grafik aussehen soll und dargestellt werden soll.
Und jetzt mit Neural Shaders kommen wir zu dem Punkt, dass wir AI-Modelle laufen lassen können. Ähnlich wie Bildgenerierung, Comfy UI oder anderes, dass ich sage, generiere mir eine wunderschöne Holzmaserung oder einen Holzfußboden. Das kennen wir alle, wer mit Comfy UI, AI-Tools spielt. Ich bekomme super hoch aufgelöste Böden dort, die genial aussehen. Und das Problem war, dass ich solche komplexe Shader nicht
nicht in den Shader-Code, in dem Shader-Programm ausführen kann. Und selbst wenn, dann würden sie, wenn sie normal auf dem Compute-Kurs, also auf dem Shader-Kurs laufen würden, halt entsprechend viel Performance verbrauchen. Die große Neuerung, die wir haben, ist, dass wir aus diesem Shader-Kurs, also aus diesem Shader-Programm, AI-Modelle aufrufen können, die dann gleichzeitig parallel auf den Tensor-Kurs, auf den AI-Kurs laufen.
mit der GPU laufen. Und da können wir dann richtig große, komplette, trainierte Modelle laufen lassen. Und können dann statt jetzt eine, sag ich mal, wenn ich das als Textur machen würde, und das soll hochauflösend sein, mit vielen Details, dass ich jetzt statt 2 GB Texturdaten habe, habe ich einfach nur die Beschreibung und ich generiere mir das on the fly. Und spare mir einmal den Speicher, ich spare mir den Download und
Der nächste Schritt ist dann, ich kann doch ganz andere Effekte machen, die ich normalerweise hart programmieren könnte, was man mit AI, wie sich das transformieren kann. Also ich denke mal, da werden wir ganz geschichtige, surreale Geschichten. Es klingt wahnsinnig spannend. Ich glaube, wir könnten da noch zwei Stunden drüber reden. Wir müssen aber ein bisschen durchkommen hier mit den Themen, weil ich habe wirklich so viele Fragen mitgebracht und wir haben vielleicht...
sechs, sieben davon hier behandelt. Deshalb, das klingt alles unfassbar spannend und richtig technologisch einfach krass. Was weniger krass war, waren so Berichte über verschmorte Stromanschlüsse bei der RTX 5090 und 5080. Vielleicht haben wir auch Bilder davon, Regie. Vielleicht könnt ihr das mal einblenden. Was war da los? Was war da los? Ja,
Generell ist es so, wir haben alle Karten, die wir bisher zurückbekommen haben, waren eigentlich darauf zurückzuführen, dass irgendwas entweder am Kabel oder am Netzteil nicht gestimmt hat. Bei den Steckern generell ist es so, sei es ein 8-Pin, sei es den 12-Volt-High-Power-Stecker, gab es damals schon mit AIDA eine neuere Version, die sicherstellt, dass der Stecker richtig eingesteckt ist.
Und es ist so, dass jede Karte kommt mit einem Adapterkabel vom Partner oder von uns. Ja, klar. Und wir haben nicht einen Fall, wo das mit dem originalen Kabel passiert ist. Ah, okay. Es ist so, ohne jetzt groß mit dem Finger zu zeigen, weil wir schauen auch, dass wir jetzt die... Wir haben auch viele...
User angesprochen, die davon berichtet haben, auch gesagt, schickt uns bitte eure Karte, euer Kabel und das Netzteil, ihr kriegt eine andere Karte und den ganzen normalen RMA-Prozess. Und es ist dann so teilweise, dass diese Kabel unterschiedlich fabriziert werden und gefertigt werden. Und darauf haben wir, sage ich jetzt mal logischerweise, keinen Einfluss. Zum Beispiel das eine Kabel, mit dem es losging, hat der Hersteller dann
gesagt, für die 50-Jähriger kauft bitte das neueste Kabel davon und nicht das, was wir vorher verkauft haben. Wenn jetzt natürlich ein User hingeht und das Kabel hatte, das in die einsteckt und sagt, das verwende ich jetzt, weil es passt ja und hat davor funktioniert für meine 40, 90, jetzt nehme ich es für die 50, 90, einmal können wir schwer sagen, was ist mit dem Kabel passiert, wie oft wurde das reingekauft
benutzt, kennen wir im Testalltag, wenn wir mit den Karten rumhantieren und ständig eine neue. Irgendwann leiern auch die Stecker ein bisschen aus. Das ist ein Faktor, was normalerweise beim End-User nicht vorkommt. Mir ist noch nie irgendwas geschmolzen, dir wahrscheinlich auch nicht. Mir auch nicht. Dann ist natürlich das Ding, dass man sagt, okay, ich habe eine Grafikkarte, ich habe einen Netzteilhersteller und ich habe ein Kabel von einem Hersteller, irgendwas
die ich miteinander verbinde und jetzt schmilzt mir das Kabel am Stecker, dann ist
Muss man halt schauen, was ist da jetzt die Ursache davon. Also die Grafikkarte ist es wahrscheinlich eher nicht. Und wenn wir den Fall hätten, dass wir sagen, okay, zum Beispiel haben wir den Punkt, dass bei uns im Stecker sind die verschiedenen Pins, die 12-Volt-Leitungen miteinander verbunden am Stecker. Ich habe es gerade hier gesehen. Können wir das andere Bild nochmal sehen, bitte? Genau, das ist von Roman.
Genau, aber das ist eben das eine Kabel, was eben explizit nicht für die 50er-Serie verwendet werden sollte. Und natürlich wird dann ein Punkt heiß. Das kann aber mit dem mitgelieferten Kabel gar nicht passieren, weil da die Pins miteinander im Stecker verbunden sind. Das heißt, ich
kann gar nicht zu so einem Hotspot kommen. Ein schwieriger Fall ist halt das, wenn Leute, ich kann das mal von mir erzählen, ich nutze für das aktuelle Testsystem ein ATX 3.0 Mainboard, das hat den neuen 12 Volt zweimal, ich weiß jetzt nicht mehr genau wie er heißt, das unterstützt den gar nicht nativ, also muss ich den alten hernehmen und ich bin immer so am fühlen, ne passt schon von der Temperatur, kann man schon arbeiten damit.
Aber ja, ich kann dem beipflichten, ich habe es auch gelesen, ich habe einen Artikel dazu geschrieben. Es ist tatsächlich so, dass es anscheinend die alten Kabel betrifft. Aber ja, was macht man denn jetzt natürlich? Das ist für jemand, der sich für eine 40, 90, 1000 Watt Netzteil ATX 3.0 gekauft hat,
Und will natürlich ja diesen schönen, einfachen, simplen 12 Volt Halbpaar-Stecke hernehmen. Dann kaufe ich mir den mit dem Netzteil dazu. Dann muss das Netzteil ein neues Netzteil kaufen unter Umständen. Oder gibt es dann auch Adapterkabel? Zum Beispiel von Corsair. Ich benutze bei mir, ich habe auch ein Corsair-Netzteil und habe dann auch den Adapter dazu. Mhm.
je nach Netzteilhersteller bekomme ich die Kabel dann auch zertifiziert für dieses Netzteilmodell, wo ich dann die Freigabe vom Hersteller habe. Zum Beispiel Corsair gibt die Freigabe für seine Kabel auch getestet und dann habe ich dann kein Problem damit. Wenn ich jetzt, sage ich mir, irgendwo ein Kabel hernehme, egal ob der vielleicht einen guten Namen hat, weil der in dem Forum habe ich gelesen, das ist ein ganz toller und dann kaufe ich mir das Kabel und
dann gehe ich natürlich ein gewisses Risiko in dem Moment ein. Also wir liefern halt den Adapter mit. Wer den nicht möchte, dem kann ich nur raten, okay, dann schau dir dein Netzteil an, schau, ob es dafür ein entsprechendes Kabel gibt. Wenn es dafür kein entsprechendes Kabel gibt, würde ich eher dazu raten, dann nimm lieber den Adapter, der mitgeliefert ist. Ja, das meinte ich. Hast du überhaupt kein Problem. Und wenn du halt ein Netzteil hast, was das kann, wie gesagt, ich habe mir auch...
für meine Testsysteme mit Corsair-Netzteilen und einem Seasonic habe ich mir einfach beim Hersteller im Shop direkt das Kabel dazu gekauft und es funktioniert völlig problemlos. Das ist ja ein Standard. Das ist ja ein PCIe 6 Standard. Die Stecker sind standardisiert und
Es muss natürlich nach dem Standard gefertigt werden und es muss auch getestet werden. Und es muss auch zuverlässig sein, auch die Steckverbindung zuverlässig sein, vom Kabel zu den Pins. Und es ist natürlich auch eine gewisse Vertrauensfrage, dass das Kabel das auch hergibt. Und Asus, MSI, Gigabyte, die Bordpartner machen teilweise auch ihre eigenen Adapter dazu. Und die stehen dafür natürlich dann auch dran.
Für die Qualität, die dann das Kabel dann entsprechend hat. Jetzt kam hier im Chat so ein bisschen die Diskussion auf, als wir gerade die Bilder gezeigt haben, dass es ja Bilder von Roman sind, also von der Bauer. Und man da ja nicht wirklich davon ausgehen kann, dass er...
nicht darüber Bescheid wüsste und somit auch das richtige Kabel verwendet. Ja, bei Roman ist das ein Spezialfall. Das ist der Nutz, glaube ich, auch ein ATX 3.0 Mainboard und entsprechend ein Kabel. Also nicht das neueste. Mhm.
Und natürlich kommt er dazu, weil er hat ja den Fall bei sich selbst erlebt, dass ein Kabel dann so heiß wurde, was wahrscheinlich daran liegt, dass es halt wie beim Test bei mir auch so ist, du steckst es halt permanent außen ein und irgendwann hast du halt irgendwie, dann greift halt der Kontakt nicht mehr so gut und so weiter. Das ist natürlich ein Problem des Weißroman auch. Ich sag mal, ohne da jetzt wertend zu sein, um da wirklich eine fundierte Aussage zu machen, bräuchte ich auch mehrere Werte.
von diesen Kabeln, die ich teste und vergleiche, dass ich auch eine statistische Daten habe, weil das waren in dem Fall wirklich ein Kabel mit einem Netzteil und jetzt nicht irgendwie ich habe noch mal ein neues Kabel bestellt, schaue, ob sich da die Temperatur ändert und messe das nach und ist natürlich auf jeden Fall
darüber zu sprechen und auch die Leute dann entsprechend aufzuklären darüber und sagen, hier, passt bitte auf, was ihr da baut, weil da geht natürlich schon einiges an Strom durch, auch in so einem PC generell, so einem High-End-Gaming-PC. Und wenn ich mir die Sachen selber baue,
Muss ich halt auch selber dafür sorgen, dass ich hochwertige Komponenten habe? Kann ich als End-User natürlich nicht unbedingt testen. Da bin ich dann auch auf die Presse angewiesen oder auf den guten Namen von den Firmen. Aber das ist auf der einen Seite das, was wir so am PC-Gaming lieben und am Enthusiast-PCs so lieben. Aber es macht es dann natürlich auch schwierig. Ja, genau.
Okay, anderes Thema, beziehungsweise gleiche Kategorie, anderes Thema. Es gibt Bericht über so ein paar Modelle, da haben Render-Output-Units gefehlt. Wie konnte das dann passieren? Da lächelst du schon, ja? Das ist eine gute Frage. Ja.
Also wir sprechen da von einer Manufacturing Anomaly. Fehler wurden gemacht. Fehler wurden dann erkannt. Warum der Fehler passiert ist auch und wie der Fehler passiert ist. Und es sollte aktuell eigentlich kein Thema mehr sein. Also der Fehler wurde erkannt in der Produktion. Betrifft auch nur die GPUs, über die wir gesprochen hatten. Mhm.
Also weiß man ungefähr, wie viele Karten davon betroffen sind? Also es sind 0,5 Prozent. Weil
Es ist ja auch kein Geheimnis, auch bei einer 5090 ist es nicht der Vollausbau von dem Chip. Das heißt, es gibt immer Units, die nicht aktiv sind. Und das wird in der Fabrik festgelegt, welche Units aktiv sind und welche nicht. Und damit wird dann dieser Chip definiert. Und ist natürlich je nach DAI und je nach Chip ein bisschen unterschiedlich. Und dabei ist ein Fehler passiert.
logischer Fehler, der gemacht wurde von Leuten. Und wie gesagt, dadurch ist der Fehler passiert. Es wurde alles richtig angewandt, aber in dem Moment falsch. Und damit ist das dann durchgeschlüpft. Was wir jetzt implementiert haben, ist halt sicherzustellen, dass das A, erstmal nicht mehr passiert. Und B, dass kein Chip, bei dem das potenziell passiert ist, überhaupt funktioniert.
Das wollte ich gerade noch fragen. Also es ist ja schon eine Frage der Qualitätskontrolle. Genau, das haben wir also entsprechend, wenn wir sagen, wir haben das gefixt, auch in der Richtung gefixt und auch mit den Partnern und mit Screening und mit Tests. Das heißt, jeder Board-Partner macht ja ein
Test, Funktionstest, bevor die Karte dann rausgeht, gechippt wird. Die werden also eingeschaltet, werden getestet, funktioniert alles mit den Display-Outputs, werden alle automatisiert durchgetestet und auch da wird dann jetzt Sorge getragen, dass sowas nicht mehr passieren kann.
Okay, welche technischen Innovationen, wenn überhaupt, können wir denn so in den nächsten Jahren von Nvidia erwarten? Kannst du uns irgendwas verraten? Oder wie steht es um die RTX 60 Serie? Wie steht es um die RTX 60er Serie? Oh, die RTX 60er Serie. Wenn sie denn so heißen wird, wer weiß. Ich meine, wir haben ja eine...
Bei uns ist es, also unsere GPUs werden ja nicht nur im Gaming verwendet, kommen ja auch im Data Center und Rechenzentren sehr stark zum Einsatz. Was einem ein bisschen eine Idee immer gibt, ist die GTC, unsere GPU-Technology-Konferenz, die wir einmal im Jahr haben. Die ist dann nächste Woche wieder in San Jose. Okay.
wo Jensen eine Keynote zeigt und dort wird natürlich sehr viel Neues vorgestellt, natürlich in Richtung AI, auch mit Data Center, wo es hingeht, auch mit künstlicher Intelligenz, die ganzen Entwicklungen, Programme. Aber vieles, was wir dort verwenden, findet auch den Weg in Gaming, zum Beispiel DLSS Upscaling,
ist eigentlich aus so einem Projekt entstanden, ist aus Bildgenerierung entstanden. Auch Frame Generation ist daraus entstanden, dass über Motion Compensation und über Superzeitlupen haben wir auch geforscht, zum Beispiel, dass ich ein normales Video habe, filme mit meiner Kamera und
Habe dann auch nur meine 30 Bilder pro Sekunde. Ich will jetzt aber einen super Slow-Mo generieren, habe den aber schon gefilmt und dann kann ich über AI die Zwischenschritte mir generieren lassen. Das waren auch Forschungen, die schon vor vielen Jahren passiert sind.
Ach krass, die dann jetzt quasi ausgereift entwickelt wurden. Ja, die Geschwindigkeit von den Chips ist halt so schnell. Vor Jahren war das so, hat man ja auch ähnlich mit Rate Racing oder Past Rating, war es unmöglich zu sagen, ich kann das in Echtzeit machen, das hat Stunden gedauert.
Raytracing und Pathtracing anzuwenden und über die AT-Kerne und in dem Fall jetzt beim AI-Modell über die Tensor-Kerne wird der Chip so schnell, dass wir das in ein paar Millisekunden machen können und ausführen können in einer Qualität, die früher nicht denkbar war.
Bei uns ist der Software-Stack, egal ob es jetzt Automotive, Data Center oder Gaming ist, von Chip und auch von CUDA, ist vollkommen miteinander kompatibel. Das heißt, alles, was wir entwickeln, alles, was andere Firmen entwickeln und Forscher entwickeln auf unseren GPUs, ist potenziell nutzbar, natürlich auch fürs Gaming. Wir hatten zum Beispiel ein Beispiel gezeigt,
Das ist jetzt auch nur eine Vision, was vielleicht kommen könnte. Wir experimentieren auch viel mit, zum Beispiel ComfyUI, dass ich sage, ich generiere mir eine Szene mit einem großen Kanal in Venedig in der Abendsonne.
generiert er mir ein Bild. Aber ich kann nicht sagen, wo die Kanäle laufen. Die laufen irgendwo. Jedes Mal, wenn ich generiere, sieht es anders aus. Da können wir dann, haben wir dann auch auf der CES ein Beispiel gezeigt, dass ich einfach nur eine grobe
gerenderte 3D-Szene haben mit ein paar Blöcken und sagt, jeder Block ist jetzt ein Haus und das ist der Kanal und nimmt das als Anhaltspunkt, wo die Häuser stehen sollen. Und dann generiert die KI das dort. Dann kann ich ein Boot nehmen und einfach ein Schiff reinsetzen und sage, da soll jetzt ein Schiff fahren. Dann macht der da ein Schiff rein. Wenn ich sage, nee, ein größeres, macht er ein größeres. Wenn ich es nach rechts schiebe, bleibt es dort. Also es ist möglich, damit auch
auch, sage ich mal, in Zukunft auch in Spielen, zusätzliche Inhalte zu generieren. Müssen nicht unbedingt jetzt im Vordergrund sein. Zum Beispiel, denkbar haben wir mit Canvas auch schon Beispiele gezeigt,
Das war dann für 3D-Raytracing, für Rendering-Programme, wenn ich sage, ich habe hier ein Haus und generiere mir jetzt ein schönes Bergpanorama im Hintergrund, statt dass ich mir jetzt irgendwie Bilder suche in Google, generiert er mir das, die dann auch license-free sind geschäftlich, was dann auch wichtig ist.
Und da wäre es zum Beispiel möglich, die Hintergründe in einem Spiel über AI zu generieren. Und dann auch vielleicht dann irgendwann, wenn es immer besser wird, auch im Vordergrund Sachen generieren. Was ist dann noch echt? Was uns dann auf diese Fake-Frame-Diskussion kommt, die dann eh lustig ist, weil es ist eh alles Fake, was wir hier im Spiel. Wer mal sieht, wie so ein Spiel eigentlich mit den verschiedenen Schritten dargestellt wird. Aber das ist so ein bisschen die Richtung,
die halt unheimlich spannend ist. Absolut. Also ich glaube, wir können da in den nächsten paar Jahren noch Großes erwarten, auch wenn vielleicht die physikalischen Grenzen mittlerweile so ein bisschen erreicht sind. Aber ich glaube, mit KI kann das irgendwie noch in eine ganz andere Richtung gehen, die wir uns vielleicht jetzt noch gar nicht vorstellen können. Ich danke euch sehr für diesen absolut spannenden Talk. Wie gesagt, ich hatte noch so viele Fragen, aber uns bleibt leider keine Zeit mehr. Danke, dass ihr dabei wart.
Musik Musik Musik