Du bist nicht angemeldet.

Stilllegung des Forums
Das Forum wurde am 05.06.2023 nach über 20 Jahren stillgelegt (weitere Informationen und ein kleiner Rückblick).
Registrierungen, Anmeldungen und Postings sind nicht mehr möglich. Öffentliche Inhalte sind weiterhin zugänglich.
Das Team von spieleprogrammierer.de bedankt sich bei der Community für die vielen schönen Jahre.
Wenn du eine deutschsprachige Spieleentwickler-Community suchst, schau doch mal im Discord und auf ZFX vorbei!

Werbeanzeige

TGGC

1x Rätselkönig

Beiträge: 1 799

Beruf: Software Entwickler

  • Private Nachricht senden

101

30.10.2017, 08:44

Wir hatten auch nochmal diskutiert ob man 4 Kerne, 4 Kerne mit HT oder 6 oder 8 Kerne haben muss. Netterweise hat mit Nimelrian nochmal einen Benchmark verlinkt, der das Problem sehr gut verdeutlicht - für alle die noch vor dem Probelm stehen: https://www.computerbase.de/2017-10/assa…strix-1920-1080

Wir haben hier eins der wenigen Spielen, das angeblich selbst mit 6 Kernen noch skaliert. Und selbst bei dem muss man erstmal eine superstarke GPU, die übertaktet ist verbauen und dann eine spezielle Einstellung wählen, in dem Fall höchste Details und 1920x1080. Dann sieht man, das die Kerne einen gewissen Einfluss haben. In anderen Einstellungen, z.B. wenn die Auflösung erhöht wird oder wenn man nicht höchste Details aktiviert, ist kein Unterschied mehr messbar.

Zeigt mal wieder, das wenn man ehh auf die superneuste Graka verzichtet, man in fast alle Situationen kaum Vorteile durch neuere CPU/DDR4 Ram Kombinationen hat.

Dank nochmal an Nimelrian.

Nimelrian

Alter Hase

Beiträge: 1 216

Beruf: Softwareentwickler (aktuell Web/Node); Freiberuflicher Google Proxy

  • Private Nachricht senden

102

30.10.2017, 14:47

Ich glaub es hackt.

Kannst ja mal in die gängigen Foren schauen. Assassins Creed läuft auf ziemlich vielen 4 Thread Systemen mehr als bescheiden (Liegt unter anderem anscheinend daran, dass Ubisoft in Sachen DRM mal wieder zu fragwürdigen Methoden greift, aber das ist ja nichts neues). Und nein, man braucht nicht die neueste GPU, um das zu sehen. Es macht hingegen Sinn, bei einem CPU Benchmark eine High End GPU zu nutzen, um ein GPU Bottleneck auszuschließen (Deswegen schraubt man dann auch die Auflösung auf 1080p oder gar noch weiter runter. Nebenbei bemerkt haben nur 5% der Steamnutzer, welche an der Hardwaresurvey teilnehmen, Auflösungen über 1080p auf dem Main Screen).

Noch dazu hast du letztens als Beispiel für deine "Games nutzen nicht mehr als 4 Threads, deswegen braucht man auch nicht mehr"-These PUBG zitiert. Dass du als GameDev das am schlechtesten optimierte, halbwegs bekannte Spiel des Jahres 2017 zitierst, sollte, meiner Meinung nach, für dich eigentlich ein Grund zum Schämen sein, wenn du auch in deinen Berufsprojekten solch einen Performance-Schund als Maßstab nimmst.

Noch dazu handelt es sich, wie ich dir inzwischen auch schon dutzende Male im Discord gesagt habe, um einen Benchmark auf einem sauberen Bench-System. Keine Hintergrundanwendungen, keine Altlasten, die ebenfalls alle gerne etwas CPU Time haben möchten.

Ich bin ehrlich gesagt wirklich erschrocken, dass du als Gamedev so einen Bullshit verbreitest. Jemandem, der ein neues System zum Entwickeln und Spielen zusammenstellen möchte, rätst du sogar sich einen mehr als 3 Jahre alten Haswell Refresh zu besorgen, für den es heutzutage kaum noch Mainboards gibt, und weiterhin auf eine SSD zu verzichten, um eine neue HDD zu kaufen.
Ich bin kein UserSideGoogleProxy. Und nein, dieses Forum ist kein UserSideGoogleProxyAbstractFactorySingleton.

Tobiking

1x Rätselkönig

  • Private Nachricht senden

103

30.10.2017, 15:28

Und selbst bei dem muss man erstmal eine superstarke GPU, die übertaktet ist verbauen und dann eine spezielle Einstellung wählen, in dem Fall höchste Details und 1920x1080. Dann sieht man, das die Kerne einen gewissen Einfluss haben.

Die Aussage würde ich etwas abschwächen. Nur weil sie mit der schnellsten GPU den CPU-Limit Benchmark durchgeführt haben, heißt das nicht, dass es nur bei dieser GPU auftritt.

Wenn ich mir GPU und CPU Benchmark anschaue fällt mir z.B. folgendes auf:

Intel Core i7-8700K + GTX 1070 => 70 FPS Durchschnitt
Intel Core i5-7600K + GTX 1080 TI => 58 FPS Durchschnitt
Intel Core i7-7700K + GTX 1080 Ti => 85 FPS Durchschnitt

Da würde ich einfach mal behaupten, dass die Kombination i5-7600K + GTX 1070 bei <= 58 FPS Durchschnitt landen wird. Da schmeißt man einiges Potential der 1070 weg. Interessant wäre, ob der 7700K bereits ausreicht um wieder nahe der 70 FPS zu kommen.

Und 1080p60 mit höchstens Details sehe ich jetzt nicht als besonders exotisches Ziel, wenn man im Bereich zwischen Mid- und High-End PCs zusammenstellt. Bei 4K und teilweise auch schon bei 1440p schraubt man selbst bei den teuersten GPUs die Grafik runter. Wird in dem Benchmark ja auch gemacht.

Garzec

Alter Hase

  • »Garzec« ist der Autor dieses Themas

Beiträge: 693

Wohnort: Gießen

  • Private Nachricht senden

104

30.10.2017, 18:22

Ich glaube es macht mehr Sinn, einen neuen Thread aufzumachen :D

Der PC wird Mittwoch zusammengebaut, nach solch langen Diskussionen hier und in Discord wird wohl kein Ende mehr in Sicht sein :P

105

30.10.2017, 19:21

Jetzt vll mal ne blöde Frage, aber warum sollte ich mir einen Intel der K Reihe (ich weiß, das die fürs Overclocking gebaut sind) kaufen? Wieso werden nicht direkt schon CPUs fertig angeboten, die eben ein wenig mehr Power raus lassen; warum muss ich mir den Boost teurer erkaufen? Ich verstehe den Sinn hinter diesem Overclocking stuff eigentlich überhaupt nicht. Gut, ich spiele auf meinem PC recht wenig, daher bin ich mit meinem i7-6700 auch noch nie wirklich an die Belastungsgrenzen gestoßen; aber warum eigentlich das Ganze? Was machen diese K Reihen "besser" als die "normalen"?
Man möge mir meine Unwissenheit verzeihen, aber ich bin in den Bereichen dann doch eher der "Standardnutzer".

EDIT: Oder anders: was spricht dagegen z.B. meine standard CPU zu übertakten?

Nimelrian

Alter Hase

Beiträge: 1 216

Beruf: Softwareentwickler (aktuell Web/Node); Freiberuflicher Google Proxy

  • Private Nachricht senden

106

30.10.2017, 19:53

Binning. Grundsätzlich sieht bspw. jeder Ryzen unter der Haube gleich aus, der Die ist für R3/5/7 exakt gleich, dasselbe gilt für i3/5/7. Aber: jede CPU hat defekte/instabile Schaltkreise, das lässt sich einfach nicht vermeiden. Dennoch kann die CPU ordentlich funktionieren. Manche CPUs haben jetzt weniger defekte ICs, daraus kann man dann einen i7 machen. Wenn der Anteil der defekten ICs nochmal etwas kleiner ist, kann man die auch unlocken und ein K-Suffix drankleben. Jetzt hast du vielleicht einen Die, bei dem die Schaltkreise für's SMT nicht funktionieren, aber die Cores dennoch ordentlich laufen, also machst du einen i5 draus. Eventuell gehen auch die SMT ICs, aber ein Core ist kaputt, dann wird ein i3 draus gemacht.

Je nachdem wie hoch der Yield des Fertigungsprozesses ist (Also je "sauberer" die Dies rauskommen), kann man die Dies aber natürlich dennoch "kastrieren", sodass man einen Die der eigentlich den Anforderungen eines i7 8700K genügt, auch zu einem 8700 oder einem 8600K machen kann.

Läuft bei GPUs übrigens genauso.
Ich bin kein UserSideGoogleProxy. Und nein, dieses Forum ist kein UserSideGoogleProxyAbstractFactorySingleton.

@zimmer

Alter Hase

Beiträge: 1 135

Wohnort: NRW Germany

  • Private Nachricht senden

107

30.10.2017, 20:32

Kann es theoretisch von jeder "serien nr" z.b. Intel Core i7-3820 auch eine K Version geben z.B. Intel Core i7-3820K?

Nimelrian

Alter Hase

Beiträge: 1 216

Beruf: Softwareentwickler (aktuell Web/Node); Freiberuflicher Google Proxy

  • Private Nachricht senden

108

30.10.2017, 22:13

Ja.
Ich bin kein UserSideGoogleProxy. Und nein, dieses Forum ist kein UserSideGoogleProxyAbstractFactorySingleton.

@zimmer

Alter Hase

Beiträge: 1 135

Wohnort: NRW Germany

  • Private Nachricht senden

109

30.10.2017, 22:32

hm deine signatur...

Ich frage mich wie die das prüfen. auch in einer K CPU im laufe der Jahre etwas durchbrennen, dann ist es keine K CPU mehr.
könntest Du nicht trotz deiner Signatur mal ein Video linken, ich weiß nicht wie ich suchen soll

Garzec

Alter Hase

  • »Garzec« ist der Autor dieses Themas

Beiträge: 693

Wohnort: Gießen

  • Private Nachricht senden

110

02.11.2017, 08:42

Interessanterweise geht bei meinem alten PC, den ich noch angeschlossen habe, auch alles kaputt. Meine acht Jahre alten 10 € Boxen, mein acht Jahre alter 60 Hz Bildschirm fängt an zu flackern... :D

Lohnen sich 144Hz Monitoren? Manche sagen der Unterschied sei enorm, andere sagen man merkt davon nix ...

Mir wurde dieser hier empfohlen

https://www.alternate.de/ASUS/VG248QE-LE…product/1055184?

mit dem Hinweis, wenn man auf dem zweiten 60 Hz Monitor Videos schaut und auf dem 144Hz Monitor spielt, wird die Leistung beim Spielen minimal beeinträchtigt, so sei es zumindest bei einem Bekannten, er weiß noch nicht woher der Fehler kommt. Ein 500 € Bildschirm ist mir aktuell zu teuer, da finde ich diesen vom Preis her schon besser.

Werbeanzeige

Ähnliche Themen