Du bist nicht angemeldet.

Stilllegung des Forums
Das Forum wurde am 05.06.2023 nach über 20 Jahren stillgelegt (weitere Informationen und ein kleiner Rückblick).
Registrierungen, Anmeldungen und Postings sind nicht mehr möglich. Öffentliche Inhalte sind weiterhin zugänglich.
Das Team von spieleprogrammierer.de bedankt sich bei der Community für die vielen schönen Jahre.
Wenn du eine deutschsprachige Spieleentwickler-Community suchst, schau doch mal im Discord und auf ZFX vorbei!

Werbeanzeige

Patrick

Alter Hase

  • »Patrick« ist der Autor dieses Themas

Beiträge: 1 264

Wohnort: Düren

Beruf: Fachinformatiker für Anwendungsentwicklung

  • Private Nachricht senden

31

20.04.2003, 21:49

@David:
mit dem ausbremsen: Meinste sowas wie Broodforce?

David Scherfgen

Administrator

Beiträge: 10 382

Wohnort: Hildesheim

Beruf: Wissenschaftlicher Mitarbeiter

  • Private Nachricht senden

32

20.04.2003, 22:24

Bruteforce, ja, die Algorithmen werden immer "bruteforciger", weil die Grafikkarten immer schneller werden.

33

20.04.2003, 23:42

Ja leider, und dabei geht immer wertvolle Rechenzeit flötten, die man z.B. viel sinnvoller in eine KI stecken könnte, oder in ein bessere Physik oder auch in eine noch Detailiertere Grafik.

Eine Schnelle Hardware ist kein Grund seine Algorithmen nicht so gut es geht zu Optimieren.
Wichtig! Ich übernehme keinerlei Verantwortung für eventl. Datenverlust oder Schäden am Rechner ;D

David Scherfgen

Administrator

Beiträge: 10 382

Wohnort: Hildesheim

Beruf: Wissenschaftlicher Mitarbeiter

  • Private Nachricht senden

34

20.04.2003, 23:49

Doch, schon! Das ist es ja gerade! Indem Du weniger per CPU optimierst, hast Du genau für die KI usw. mehr Zeit, weil der grafische Teil größtenteils von der Hardware erledigt wird!
Wenn Du jetzt zig aufwändige Culling-Verfahren machst (die ja alle per CPU gemacht werden), dann geht die Zeit flöten! Und diese Verfahren bringen ja meistens nicht mehr viel, weil die Hardware ja bei der Fillrate ihre Grenze erreicht, und nicht bei der Anzahl der Polygone.

Patrick

Alter Hase

  • »Patrick« ist der Autor dieses Themas

Beiträge: 1 264

Wohnort: Düren

Beruf: Fachinformatiker für Anwendungsentwicklung

  • Private Nachricht senden

35

21.04.2003, 01:12

Zitat von »"David Scherfgen"«

Bruteforce, ja, die Algorithmen werden immer "bruteforciger", weil die Grafikkarten immer schneller werden.


Was ist denn für dich bruteforciger? gar kein culling mehr? Ich mein, nicht jeder hat heutzutage schon eine GF4ti oder Radeon9700 Pro im rechner, oder?

Und wie ist es dann mit DLOD und CLOD? sind die auch unnütz dann? ???

Jumping Jack

Treue Seele

Beiträge: 142

Wohnort: Hamburg

Beruf: Schüler

  • Private Nachricht senden

36

21.04.2003, 14:00

macht es dann etwa keinen unterschied mehr(auf neueren karten) ob ich 100.000 oder 10 polys rendere?

wenn das so wäre dann würde sich das rendern ja stark vereinfachen, vom programmieren her. man müsste einen großteil der techniken nicht implementieren.

wie ist das mit den renderstates, sind die auch weniger zeitaufwendig geworden?


@Maverick

Zitat


seit einführig der Shader sind Polygone quasi egal geworden

kannst du das vileicht genauer erklären?

David Scherfgen

Administrator

Beiträge: 10 382

Wohnort: Hildesheim

Beruf: Wissenschaftlicher Mitarbeiter

  • Private Nachricht senden

37

21.04.2003, 14:32

Das kommt immer auf die Polygone an! Wenn diese 10.000 Polygone auf dem Bildschirm die gleiche Menge an Pixeln einnehmen wie die 10 Polygone, dann ist der Unterschied nicht so groß. Natürlich kann man nicht sagen, dass es genauso schnell ist - denn die 10.000 Polygone wollen ja auch erstmal transformiert und beleuchtet werden.
Es kommt hier immer hauptsächlich auf die Menge an zu zeichnenden Pixeln an, und wenn sich diese 10.000 Polygone mehrfach überlappen, dann wird es langsamer werden. Darum bringt es viel, den Overdraw so gering wie möglich zu halten.

Jumping Jack

Treue Seele

Beiträge: 142

Wohnort: Hamburg

Beruf: Schüler

  • Private Nachricht senden

38

21.04.2003, 17:08

sagen wir mal, keine überlappungen und die polys nehmen am bildschirm die gleiche menge an pixeln ein, dann fällt das beleuchten und transformieren nicht so ins gewicht?
gibt es da irgendwelche tests wo man genaueres erfahren kann (zahlen) wie stark sowas denn ins gewicht fällt?

und wie ist das mit dem frustrum culling? macht das die hw oder muss man das selber machen?

39

21.04.2003, 17:14

Das ViewFrustum ist ja mehr für das Object Culling gedacht. Auch wenn man es für das Vertex Culling benutzen kann ;) Ganze Objekte werden von der Hardware nicht "gecullt", sondern nur Vertice.
Wichtig! Ich übernehme keinerlei Verantwortung für eventl. Datenverlust oder Schäden am Rechner ;D

Patrick

Alter Hase

  • »Patrick« ist der Autor dieses Themas

Beiträge: 1 264

Wohnort: Düren

Beruf: Fachinformatiker für Anwendungsentwicklung

  • Private Nachricht senden

40

30.04.2003, 22:49

*push*

@Maverick
sofern ich das hier rauslese wolltest du noch was posten, und das intressiert mich sehr was du posten wolltest :D

Werbeanzeige