Du bist nicht angemeldet.

Stilllegung des Forums
Das Forum wurde am 05.06.2023 nach über 20 Jahren stillgelegt (weitere Informationen und ein kleiner Rückblick).
Registrierungen, Anmeldungen und Postings sind nicht mehr möglich. Öffentliche Inhalte sind weiterhin zugänglich.
Das Team von spieleprogrammierer.de bedankt sich bei der Community für die vielen schönen Jahre.
Wenn du eine deutschsprachige Spieleentwickler-Community suchst, schau doch mal im Discord und auf ZFX vorbei!

Werbeanzeige

dot

Supermoderator

Beiträge: 9 757

Wohnort: Graz

  • Private Nachricht senden

11

19.03.2016, 17:25

Sry, da ging vorhin was mit meinem Keyboard Layout schief und der Beitrag wurde zu schnell abgesendet... Aber ja, normalerweise brauchst du da nix tun...

Vailor1

Frischling

  • »Vailor1« ist der Autor dieses Themas

Beiträge: 42

Beruf: Fachinformatiker für Anwendungsentwicklung

  • Private Nachricht senden

12

19.03.2016, 17:26

Ok, danke.

Nox

Supermoderator

Beiträge: 5 272

Beruf: Student

  • Private Nachricht senden

13

19.03.2016, 18:03

tada-manchmal hilft es einfach zu schreiben, was man eigentlich erreichen will ;) .
PRO Lernkurs "Wie benutze ich eine Doku richtig"!
CONTRA lasst mal die anderen machen!
networklibbenc - Netzwerklibs im Vergleich | syncsys - Netzwerk lib (MMO-ready) | Schleichfahrt Remake | Firegalaxy | Sammelsurium rund um FPGA&Co.

Beiträge: 1 223

Wohnort: Deutschland Bayern

Beruf: Schüler

  • Private Nachricht senden

14

19.03.2016, 19:55

Es gibt auch die Möglichkeit die Verwendung einer richtigen Grafikkarte im Quellcode mit dem Export der Symbole NvOptimusEnablement und AmdPowerXpressRequestHighPerformance zu erzwingen. (zweiteres habe ich selbst noch nicht getestet)

C-/C++-Quelltext

1
2
3
4
5
extern "C"
{
    __declspec(dllexport) NvOptimusEnablement = 1;
    __declspec(dllexport) int AmdPowerXpressRequestHighPerformance = 1;
}

15

19.03.2016, 20:09

Das habe ich auch gesehen, aber ich denke, so etwas sollte vom Nutzer entscheidbar sein.

Beiträge: 1 223

Wohnort: Deutschland Bayern

Beruf: Schüler

  • Private Nachricht senden

16

19.03.2016, 20:34

Naja zum Teil ergibt es einfach keinen Sinn, die eingebaute GPU zu verwenden. OpenGL bietet leider keine gute Möglichkeit den Nutzer entscheiden zu lassen. Ich hatte auch schon den Fall, dass eine OpenGL 3 Anwendung nicht lief, weil die eingebaute GPU verwendet wurde, die OpenGL 3 im Gegensatz zur richtigen Grafikkarte nicht unterstützt hat. Die GPUs von Intel sind da immer recht weit hinterher.

Sacaldur

Community-Fossil

Beiträge: 2 301

Wohnort: Berlin

Beruf: FIAE

  • Private Nachricht senden

17

26.03.2016, 20:47

@Techel: Der Benutzer kann immernoch entscheiden. Im Grunde wird so nur das Standardverhalten beeinflusst. Will der Benutzer explizit nicht den Grafikchip mit höherer Leistung (und Höherem Verbrauch), müsste er es entsprechend einstellen.
Spieleentwickler in Berlin? (Thema in diesem Forum)
---
Es ist ja keine Schande etwas falsch zu machen, als Programmierer tu ich das täglich, [...].

Werbeanzeige