Du bist nicht angemeldet.

Stilllegung des Forums
Das Forum wurde am 05.06.2023 nach über 20 Jahren stillgelegt (weitere Informationen und ein kleiner Rückblick).
Registrierungen, Anmeldungen und Postings sind nicht mehr möglich. Öffentliche Inhalte sind weiterhin zugänglich.
Das Team von spieleprogrammierer.de bedankt sich bei der Community für die vielen schönen Jahre.
Wenn du eine deutschsprachige Spieleentwickler-Community suchst, schau doch mal im Discord und auf ZFX vorbei!

Werbeanzeige

LukasBanana

Alter Hase

  • »LukasBanana« ist der Autor dieses Themas

Beiträge: 1 097

Beruf: Shader Tools Programmer

  • Private Nachricht senden

1

30.09.2014, 18:50

Screen Space Cone Tracing for Glossy Reflections (SSCT)

Hallo zusammen,
da es ich hier nicht um eine Projektvorstellung im üblichen Sinne handelt, stelle ich das einfach mal in dieses Forum :-)
Ist auch schon nicht mehr ganz aktuell, aber vielleicht interessiert sich ja der ein oder andere für derartige Post-Processing Effekte.

Mit einem Kollegen am Fraunhofer IGD habe ich zwischen letzen und diesem Jahr an einem Poster für die SIGGRAPH'14 gearbeitet:
Screen Space Cone Tracing for Glossy Reflections (SSCT)

Hier geht's zur ACM Lib: http://dl.acm.org/citation.cfm?id=2614274
Und hier zum Poster auf der Seite meines Kollegen: http://www.tobias-franke.eu/publications/hermanns14ssct/

( Im aktuellen GPU Pro 5 gibt's ein Verfahren, das genau so heißt, allerdings wird da mit Hi-Z Maps gearbeitet. )

Gruß,
Lukas

Schrompf

Alter Hase

Beiträge: 1 470

Wohnort: Dresden

Beruf: Softwareentwickler

  • Private Nachricht senden

2

30.09.2014, 19:06

Die Methode könnte interessant sein, wenn sie gegenüber den existierenden Methoden irgendwas Spannendes bietet. Leider kann man das nicht bewerten, weil das Paper hinter einer Paywall versteckt ist. Was für akademische Kreise heißt: es existiert nicht.

Warum macht man solchen Quatsch?

Ansonsten aber gute Arbeit! Vermute ich.
Häuptling von Dreamworlds. Baut aktuell an nichts konkretem, weil das Vollzeitangestelltenverhältnis ihn fest im Griff hat. Baut daneben nur noch sehr selten an der Open Asset Import Library mit.

LukasBanana

Alter Hase

  • »LukasBanana« ist der Autor dieses Themas

Beiträge: 1 097

Beruf: Shader Tools Programmer

  • Private Nachricht senden

3

30.09.2014, 19:09

Leider kann man das nicht bewerten, weil das Paper hinter einer Paywall versteckt ist.

Meinst du den 1. Link? Die ACM will Geld, ja.
Aber mein Kollege hat es öffentlich auf seiner Seite hochgeladen (2. Link, ganz unten auf der Seite bei "Links").

David Scherfgen

Administrator

Beiträge: 10 382

Wohnort: Hildesheim

Beruf: Wissenschaftlicher Mitarbeiter

  • Private Nachricht senden

4

01.10.2014, 01:09

Fast jede Uni bietet doch freien Zugriff auf ACM und IEEE.
Von zuhause aus muss man dann halt den Uni-Server als Proxy benutzen.

Ist das Poster angenommen worden?
Wenn ja, herzlichen Glückwunsch. SIGGRAPH ist ja die Grafikkonferenz schlechthin, da ist es verdammt schwer ein "Accept" zu kriegen, wie ich gehört habe (nicht dass ich es versucht hätte).

LukasBanana

Alter Hase

  • »LukasBanana« ist der Autor dieses Themas

Beiträge: 1 097

Beruf: Shader Tools Programmer

  • Private Nachricht senden

5

01.10.2014, 10:24

Danke, ja es wurde angenommen :-)
Wir hatten allerdings etwas Glück. Wir haben nur Bilder aber kein Video mitgeschickt, als wir das Abstract eingereicht haben.
Ein Video steigert in der Regel die Chancen, dass es akzeptiert wird.

David_pb

Community-Fossil

Beiträge: 3 886

Beruf: 3D Graphics Programmer

  • Private Nachricht senden

6

06.10.2014, 12:32

herzlichen Glückwunsch! Liest sich ganz interessant. Leider kann ich kaum Details aus dem Poster entnehmen, gibts denn kein Paper dazu? Was ich mich frage, was ist denn der 'Vorteil' gegenüber der Technik die in GPU Pro 5 vorgestellt wird. Wenn man die Beschleunigung beim Raytracen wegnimmt sieht das grundlegende Vorgehen sehr ähnlich aus. Dei Verwendung des hierarchischen Z-Buffer geht ja Probleme an die genau durch eine lineare Suche entstehen. Habt ihr da irgend einen Ansatz der dafür sorgt das die Kosten nicht explodieren wenn man außerhalb von lokalen Bereichen sampled? Außerdem würde mich interessieren wie ihr das traversal entlang des Strahls gelöst habt, macht ihr das direkt im Screenspace?
@D13_Dreinig

LukasBanana

Alter Hase

  • »LukasBanana« ist der Autor dieses Themas

Beiträge: 1 097

Beruf: Shader Tools Programmer

  • Private Nachricht senden

7

06.10.2014, 15:19

Ich arbeite mich auch gerade in das Hi-Z Cone Tracing ein. Darauf aufbauend, soll ich nun 'Fallback' Methoden einbauen,
für den Fall, wenn Geometrie nicht im Screen Space reproduziert werden kann.
In dem Poster ging es erst mal nicht um high-performance, sondern darum, die Bildqualität zwischen verschiedenen Verfahren zu vergleichen.
u.A. mit den bisherigen SSLR (Screen Space Local Reflections) Verfahren.
Die Methode des Ray-Tracings btw. des Ray-Marchings ist im Poster eigentlich schon recht detailliert erklärt, da gibt's also nicht viel mehr dazu zusagen :-)
Wir hatten allerdings auch schon mit dem Poster angefangen, noch bevor das "Hi-Z SSCT" Kapitel im GPU Pro 5 angekündigt wurde.
Und ja, wir machen das Tracversal direkt im Screen Space. Man kann allerdings neben der Window-Coordinate auch gleich die World-Coordinate mit traversieren.

David_pb

Community-Fossil

Beiträge: 3 886

Beruf: 3D Graphics Programmer

  • Private Nachricht senden

8

06.10.2014, 16:22

da gibt's also nicht viel mehr dazu zusagen :-)


Auf einem Poster nicht, stimmt. Mich würden mehr technische/Implementierungsdetails interessieren. Z.B. wie ihr das Mip-Level auswählt, ob es bereits Messwerte gibt um das Ganze besser einordnen zu können und ob es schon Indeen gibt für/gegen bekannte "Flaws" von SSRT/SSCT usw... Die Grundidee ist definitiv eine coole Sache! :)
@D13_Dreinig

David Scherfgen

Administrator

Beiträge: 10 382

Wohnort: Hildesheim

Beruf: Wissenschaftlicher Mitarbeiter

  • Private Nachricht senden

9

06.10.2014, 16:52

Mal eine generelle Frage. Ich habe bislang noch nie mit solchen Screen-Space-Methoden gearbeitet.
Aber haben die nicht einen gravierenden Nachteil, nämlich dass man nur das berücksichtigen kann, was auch von der Kamera aus sichtbar ist?
Ein Objekt, das sich hinter der Kamera befindet (oder im Allgemeinen außerhalb des Viewing Frustums) kann so doch gar nicht in einer Reflexion auftauchen, oder?

David_pb

Community-Fossil

Beiträge: 3 886

Beruf: 3D Graphics Programmer

  • Private Nachricht senden

10

06.10.2014, 17:01

Aber haben die nicht einen gravierenden Nachteil, nämlich dass man nur das berücksichtigen kann, was auch von der Kamera aus sichtbar ist?
Ein Objekt, das sich hinter der Kamera befindet (oder im Allgemeinen außerhalb des Viewing Frustums) kann so doch gar nicht in einer Reflexion auftauchen, oder?


Ja, genau so ist das. Es gibt Ansätze die versuchen das Problem zu umgehen/verstecken/verschleiern, z.B. indem ein G-Buffer mit mehreren Layern verwendet wird (Deep G-Buffer, o.Ä.). Speziell im Fall von SSR verwenden viele Spiele hybride Lösungen und blenden (parallax korrigierte) Cubemap Reflexionen an problematische Stellen ein. Generell sind Screenspace Ansätze aber ganz attraktiv für Spiele, weil sich damit häufig relativ günstig und einfach nette Effekte erzielen lassen.
@D13_Dreinig

Werbeanzeige