Suchergebnisse
Suchergebnisse 1-20 von insgesamt 22.
Begründung der Fachjury "Bestes Konzept aus Schülerwettbewerb" Das Spiel überzeugt durch ein klares Design welches durch einige originelle Ideen das klassische Jump’n’Run Genre erweitert. Zudem ist die Umsetzung sowohl sauber als auch technisch intelligent gelöst. Eine eigene und gut gewählte klare Bildsprache rundet die Einreichung ab. Die weitere Umsetzung des Projekts kann uneingeschränkt zur Förderung empfohlen werden. Das kann man nur unterstreichen : Herzlichen Glückwunsch!
Hab gerade mit meinem XBox-Controller die zwei Levels geschafft. Funktioniert bestens, auch das Force-Feedback. Mit ein bisschen Übung finde ich die Schwierigkeit genau richtig, zumindest für ein schweres Level! Allerdings ist es ziemlich nervig, wenn man kurz vor Schluss stirbt und dann wieder komplett von vorne anfangen muss. (Checkpoints )
Bei mir gehen jetzt auch die Shader (ATI 3870x2!!!) Was mich allerdings jetzt noch stört ist die Auflösung. Dank Weihnachten hat mein Monitor jetzt 1920x1080: ->Wenn ich nicht ganz dumm bin kann man ja nur 1280x720 als höchstes einstellen. -> Da bringen auch die Shader nichts mehr ! Ansonsten sind die neuen Gegner richtig cool.
Zitat von »"Flonk"« oder man sollte zumindest verstehen können ws gemeint ist ohne jeden satz 2 mal zu llesen Also so etwa ? "Luat enier sidtue an eienr elgnhcsien uvrsnäiett, ist es eagl in wcheler rhnfgeeloie die bstuchbaen in eniem wrot snid. Das eniizg whictgie ist, dsas der etrse und der lztete bstuchbae am rtigeichn paltz snid. Der rset knan tatol deiuranchnedr sien und man knan es ienrmomch onhe porbelm lseen. Das legit daarn, dsas wir nhcit jeedn bstuchbaen aeilln lseen, srednon das wro...
Zitat von »"fred2507"« nimm ne geforce 260gtx, die hat das beste preis-leistungs verhältnis und ne menge power. die ati 5er reihe ist dafür, dass sie "nur" dx11 kann, überteuert. naja die ATI 4890 ist schneller und kostet ungefähr gleich viel, was normalerweise auf ein besseres Preis/Leistungs-Verhältnis hinweist -> http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_ati_radeon_hd_4890_nvidia_geforce_gtx_275/22/#abschnitt_performancerating_qualitaet
Schreib doch das mal in die main : C-/C++-Quelltext 1 2 3 4 5 6 7 8 9 10 11 App.Clear(); sf::Image Held; sf::Sprite* spHeld; Held.LoadFromFile("Data/Held.png"); spHeld = new sf::Sprite(Held); spHeld->SetPosition(0.f, 0.f); App.Draw(*spHeld); App.Display(); Wenn das nicht funktioniert sind deine Bilder kaputt(nicht richtig...)!
Versuch das Sprite zu ändern : C-/C++-Quelltext 1 2 3 4 5 spHeld.SetColor(sf::Color(r, g, b, alpha)); spHeld.SetPosition(x, y); spHeld.SetRotation(float); spHeld.SetCenter(x, y); spHeld.SetScale(x, y); vielleicht ist dein Bild zu klein : spHeld.SetScale(100, 100);
Also : C-/C++-Quelltext 1 2 3 4 5 sf::Image Stein ... std::vector<sf::Sprite> SStein ... SStein.push_back(Stein) -Du fügst einem Sprite-vector ein Image hinzu ? -Du musst aus dem sf::Image ein Sprite erzeugen (setImage): http://www.sfml-dev.org/tutorials/1.5/graphics-sprite.php Ganz genau durchlesen! Zitat Edit: Ich hab irgendwie das gefühl das es daran liegt, das jetzt SBaum und co. nicht sf:prite sind sondern jetzt ein vector sind. NEIN!
ähm... Nicht: App.Draw(SStein.at(1)); Sondern So: App.Draw(SStein.at(0)); Du hast nur ein Element hinzugefügt! http://www.cplusplus.com/reference/stl/vector/
Zeig doch noch mal deinen kompletten Code wie du ihn jetzt hast! Also: - LvlGenerator - LoadAllSprites - !main methode! - ... std::vector ist eigentlich kein großes Ding
Hi, Ich hab ein ganz komisches Problem. Wenn ich im Debug-Mode kompiliere funktioniert alles. Im Release-Mode wird ein Fenster erstellt und dann bricht das Programm ab. Die Debug-Ausgabe ist : The thread 'Win32 Thread' (0xc5 has exited with code -1073740777 (0xc0000417). Ich benutze Visual C++ 2008 EE.
Also, C-/C++-Quelltext 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 ///////////////////////////////////////////////// // app_dll.h class __declspec(dllexport) cApp { private: static cApp* m_pInst; cApp(){} ~cApp() { if(m_pInst) destroy();} } int m_value; public: void init(const int& val); void destroy(); static cApp* getInst(); void showValue(); }; /////////////////////////////////////////...
C-/C++-Quelltext 1 2 FEHLER:Das Objekt wurde nicht gefunden! Die Datei Log.html@Log.zip konnte nicht geöffnet... Nach der Fehlermeldung her, ist der Code richtig! Nur die Datei liegt am falschen Ort! ->Geb doch mal den gesamten Pfad der Datei an, dann müsste es klappen. ODER: siehe unten :roll: Und nein, ein Rad hab ich nicht für dich
Sag doch einfach mal was du schon gemacht hast und was du alles kannst. Um etwas zu lernen ist ein Buch immer hilfreich ! um das buch geht es : https://www.spieleprogrammierer.de/index.php?option=content&task=view&id=8&Itemid=
Oh, des mit dem Ram hab ich überlesen. Wenn du eh genug daheim hast, nimm doch am besten den http://www.firstway.de/product_attributes.php/info/p33553_Indianapolis-E7200.html MIT 512mb ram -> 10€ teurer aber bessere Grafikkarte (viel besser) aber gut wenn nicht dann nicht
http://www.firstway.de/product_attributes.php/info/p33346_Daytona-E7200-HD4850.html http://www.firstway.de/index.php/cat/c921_----nach-Preis.html
Naja für GANZ dumme Die Farbe wird ja so gesetzt : C-/C++-Quelltext 1 2 3 g_aTriangleVertex[0].dwColor = tbColor(1.0f, 0.0f, 0.0f); g_aTriangleVertex[1].dwColor = tbColor(0.0f, 1.0f, 0.0f); g_aTriangleVertex[2].dwColor = tbColor(0.0f, 0.0f, 1.0f); Also schreibst du das einfach in die Render-Funktion : C-/C++-Quelltext 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 // Szene beginnen g_pD3DDevice->BeginScene(); // Einen schönen Farbübergang erzeugen g_aTriangleVertex[0].dwColor = tbColor(sinf(...
Hi, Also, da sich die Farbe während der gesamten Laufzeit des Programms verändern soll, muss die Farbe in der Render-Funktion berechnet/gesetzt werden :idea: Und das ist eigentlich schon alles, müsste funktionieren !
Noch ein test von Crysis (das Spiel das NVidia SEHR bevorzugt): http://www.pcgameshardware.de/aid,650880…1&show=original @Task-Manager : Aufpreis nur wegen NVidia, naja :? http://www.computerbase.de/artikel/hardw…nitt_benchmarks BTW : Ich hatte bisher NUR ATI und bin voll zufrieden Edit: die 4870 verbraucht weniger Strom und unterstützt DX10.1 Edit2 : Preis is ok habs auch grad gesehen ! Edit3: hab ich wegedited so jetz is gut!
@Faule Socke ich stimm dir ja in vielem zu aber zur Grafikkarte : Woher nimmst du die Infos dass die NVidia Karten schneller sind ? Denn nach Tests liegt die ATI 4870 (ca. 200€) mit der GTX 260(250€-...) gleich auf ! siehe : http://www.computerbase.de/artikel/hardw…ating_qualitaet Und dass die 4870 meistens auch hinter der 9800 GTX liegen soll verstehe ich absolut nicht :shock: (mit deinen Worten : Was du schreibst ist quatsch) Fazit : Kaufempfehlung für die ATI 4870 ! (Oder warten bis im August...