Stilllegung des Forums
Das Forum wurde am 05.06.2023 nach über 20 Jahren stillgelegt (weitere Informationen und ein kleiner Rückblick).
Registrierungen, Anmeldungen und Postings sind nicht mehr möglich. Öffentliche Inhalte sind weiterhin zugänglich.
Das Team von spieleprogrammierer.de bedankt sich bei der Community für die vielen schönen Jahre.
Wenn du eine deutschsprachige Spieleentwickler-Community suchst, schau doch mal im Discord und auf ZFX vorbei!
Werbeanzeige
Administrator
Dieser Beitrag wurde bereits 1 mal editiert, zuletzt von »chrisslfissl« (14.08.2011, 13:51)
Community-Fossil
Beruf: Teamleiter Mobile Applikationen & Senior Software Engineer
Die Frage ist inwiefern sich diese Technik überhaupt für Hardwarebeschleunigung eignet. Die immense Power moderner Grafikkarten erwächst aus der Tatsache dass Rasterisierung ein fast perfekt parallelisierbarer Prozess ist. Und wie gesagt sehe ich da ein potentielles Problem. Außerdem sehe ich noch ein Problem: UD ist garantiert kein immediate-Mode Prozess. Rasterisierung dagegen schon. Meinem Rasterizer kann ich einfach die Polygone hinwerfen die er zeichnen soll und fertig. Raytracing und wohl auch Unlimited Detail benötigen naturgemäß globale Information um überhaupt zu funktionieren
Also ich kenn genügend Leute die sich beruflich sehr ernsthaft mit Voxeln beschäftigen (wie gesagt, z.B. in medizinischen Anwendungen ist Voxelgrafik ja sowieso praktisch immer schon Standard). Und auch Carmack z.B. sagt ja in dem oben verlinkten Interview dass er sich in seiner Zeit schon immer wieder mit Voxeln beschäftigt hat, aber nie was rauskam was sich wirklich hätte durchsetzen können.
Fraglich ob statisches Gelände die Zukunft ist Kombinieren halte ich auch für potentiell problematisch. Ganz abgesehen davon dass die Komplexität der Software und Contentpipeline sich dadurch verdoppelt bedeutet das einen Wechsel zwischen zwei komplett unterschiedlichen Kontexten in jedem Frame. Auch stelle ich mir UD potentiell sehr sehr Bandbreitenintensiv vor.
Dieser Beitrag wurde bereits 1 mal editiert, zuletzt von »BlueCobold« (14.08.2011, 15:31)
Die Frage ist inwiefern sich diese Technik überhaupt für Hardwarebeschleunigung eignet. Die immense Power moderner Grafikkarten erwächst aus der Tatsache dass Rasterisierung ein fast perfekt parallelisierbarer Prozess ist. Und wie gesagt sehe ich da ein potentielles Problem. Außerdem sehe ich noch ein Problem: UD ist garantiert kein immediate-Mode Prozess. Rasterisierung dagegen schon. Meinem Rasterizer kann ich einfach die Polygone hinwerfen die er zeichnen soll und fertig. Raytracing und wohl auch Unlimited Detail benötigen naturgemäß globale Information um überhaupt zu funktionieren
Du meinst de fakto also wie Vertex-Buffer-Objects, die auch heute schon für Terrain benutzt werden?
Also ich kenn genügend Leute die sich beruflich sehr ernsthaft mit Voxeln beschäftigen (wie gesagt, z.B. in medizinischen Anwendungen ist Voxelgrafik ja sowieso praktisch immer schon Standard). Und auch Carmack z.B. sagt ja in dem oben verlinkten Interview dass er sich in seiner Zeit schon immer wieder mit Voxeln beschäftigt hat, aber nie was rauskam was sich wirklich hätte durchsetzen können.
Volumendaten sind nicht immer gleich auch als Voxel gerendert. Ich kenne jemanden, der an Kernspins und sowas herum-programmiert und dort machen sie immer wieder Polygone daraus.
Komplexität sollte angesichts der wie viel Millionen Transistoren in einer heutigen Grafikkarte genau eine Rolle spielen? Wenn die Hersteller das gebacken bekommen, dann sollte doch wohl UD jetzt auch nicht gerade eine große Herausforderung sein.
Naja, heute haben wir überall Multicores.
Und da das Rendering nur auf einem Kern läuft, wären die anderen für den Rest übrig.
Community-Fossil
Beruf: Teamleiter Mobile Applikationen & Senior Software Engineer
Fraglich ob statisches Gelände die Zukunft ist Kombinieren halte ich auch für potentiell problematisch. Ganz abgesehen davon dass die Komplexität der Software und Contentpipeline sich dadurch verdoppelt bedeutet das einen Wechsel zwischen zwei komplett unterschiedlichen Kontexten in jedem Frame.
Worums mir ging: Viele Millionen Transistoren helfen dir nix wenn du sie nicht auslasten kannst
Dieser Beitrag wurde bereits 5 mal editiert, zuletzt von »dot« (15.08.2011, 00:49)
Community-Fossil
Beruf: Teamleiter Mobile Applikationen & Senior Software Engineer
Dieser Beitrag wurde bereits 1 mal editiert, zuletzt von »BlueCobold« (15.08.2011, 06:42)
Eigentlich haben sie doch genau genug beschrieben, was sie tun. Sie suchen für jeden Pixel des Bildschirms ein Voxel in ihrer Datenstruktur. Das klingt für mich sehr nach Parallelisierbarkeit. Genau genommen klingt es sogar nach Raytracing oder Raycasting, nur dass sie sich gegen diese Betrachtung der Sache verweigern.
Die Sache mit den Instanzen finde ich übrigens auch sehr spannend dargelegt von Dir. Da frag ich mich doch gerade ob heutige Spiele ihre Wiesen, Felder, Wälder und Gegner auch mit Instanzen rendern oder gar Texturen mehrfach verwenden... wollen wir's lieber nicht hoffen...
Deinen letzten Absatz finde ich (auch wenn ich den "fehlenden Fakten" zustimmen kann) ziemlich polemisch und Du klingst da wieder mal so als wäre die Welt nur entweder weiß oder schwarz. Und so wirkst Du übrigens jedes Mal, wenn jemand daher kommt und sagt, dass es doch etwas besseres geben könne (für bestimmte Zwecke) als Polygone. Sorry, das finde ich wenig konstruktiv.
Dieser Beitrag wurde bereits 24 mal editiert, zuletzt von »dot« (15.08.2011, 12:14)
Community-Fossil
Beruf: Teamleiter Mobile Applikationen & Senior Software Engineer
Du findest es also nichtmal bestenfalls seltsam dass sämtliche Szenen aus all den Jahren, die man bisher gesehen hat, aus Millionen Instanzen von einer Handvoll Modellen bestehen die ausschließlich um die y-Achse rotiert sind!? Und das obwohl die dem Video nach mittlerweile gleich viele Leute für Contentcreation haben wie an der Engine arbeiten!? Der einzige Schluss zu dem ich da kommen kann ist, dass es sich um eine ernsthafte Limitierung des Systems handeln muss...
Werbeanzeige