Du bist nicht angemeldet.

Stilllegung des Forums
Das Forum wurde am 05.06.2023 nach über 20 Jahren stillgelegt (weitere Informationen und ein kleiner Rückblick).
Registrierungen, Anmeldungen und Postings sind nicht mehr möglich. Öffentliche Inhalte sind weiterhin zugänglich.
Das Team von spieleprogrammierer.de bedankt sich bei der Community für die vielen schönen Jahre.
Wenn du eine deutschsprachige Spieleentwickler-Community suchst, schau doch mal im Discord und auf ZFX vorbei!

Werbeanzeige

Beiträge: 1 223

Wohnort: Deutschland Bayern

Beruf: Schüler

  • Private Nachricht senden

11

17.07.2014, 13:27

Nsight läuft laut Nvidias Seite auf "GeForce GPUs 400 series or better"
Allerdings habe ich das noch nicht verwendet. Ich habe das erst letzens endeckt, installiert und wollte es mal beim nächsten OpenGL Problem, das sicher früher als gedacht kommt, mal ausprobieren. Was du erzählst klingt aber nicht so überzeugend.

Geht den CodeXL eigentlich überhaupt noch auf Nvidia Hardware?

LukasBanana

Alter Hase

  • »LukasBanana« ist der Autor dieses Themas

Beiträge: 1 097

Beruf: Shader Tools Programmer

  • Private Nachricht senden

12

17.07.2014, 13:57

Geht den CodeXL eigentlich überhaupt noch auf Nvidia Hardware?

AMD GPU ShaderAnalyzer kann ich auch mit NVIDIA GeForce Karten benutzen, also denke ich mal sollte CodeXL auch mit NVIDIA GPUs nützlich sein.

LukasBanana

Alter Hase

  • »LukasBanana« ist der Autor dieses Themas

Beiträge: 1 097

Beruf: Shader Tools Programmer

  • Private Nachricht senden

13

17.07.2014, 22:02

Kleiner Tipp wozu es sich extrem lohnt die MIP maps über Shader selber zu generieren:
In einer Präsentation von NVIDIA habe ich mal gelesen, dass es viel effizienter ist, eine große 2D Array Texture zu binden, anstatt immer wieder einzelne 2D Texturen zu binden und unbinden.
D.h. man soll möglichst alle Texturen der selben Größe in eine große Array Texture laden, weil die Texture-Bindings einen ernsthaften Flaschenhals darstellen.
Es ist allerdings ein Problem, wenn man nur einen einzigen Layer in dieser Array Texture aktuallisieren will und dann mit "glGenerateMipmap" die MIP-maps neu generieren will.
Denn "glGenerateMipmap" generiert die MIP maps für alle Layer in der Array Texture neu.
Bei bereits relativ geringer Anzahl Slices (128+) ist das dann extrem langsam.
Ich habe in meiner Anwendung eine Array Texture mit 'maximaler' größer (1024 Slices), wenn ich "glGenerateMipmap" aufrufe, bricht die Anwendung von 1500 FPS auf 15 FPS runter.
Mit meiner eigenen MIP-map generierung fällt die Anwendung nur noch auf ca. 900 FPS runter. Ist also noch nicht ganz optimal aber schon mal deutlich besser ;-)

Werbeanzeige