Du bist nicht angemeldet.

Stilllegung des Forums
Das Forum wurde am 05.06.2023 nach über 20 Jahren stillgelegt (weitere Informationen und ein kleiner Rückblick).
Registrierungen, Anmeldungen und Postings sind nicht mehr möglich. Öffentliche Inhalte sind weiterhin zugänglich.
Das Team von spieleprogrammierer.de bedankt sich bei der Community für die vielen schönen Jahre.
Wenn du eine deutschsprachige Spieleentwickler-Community suchst, schau doch mal im Discord und auf ZFX vorbei!

Werbeanzeige

1

10.07.2015, 21:26

"Emotionale" Spieleengine

Liebes Forum,

ich bin neu hier und nach 20 Jahren selber spielen, sitze ich nun im Rahmen meiner Promotion auf der "anderen" Seite. Wir wollen eine Art "Spiel" für Menschen mit Autismus bauen, mit dem sie soziale Interaktionen trainieren können: #mce_temp_url#

Nun bin auf der Suche nach einer Engine, in der wir das Ganze umsetzen können, dafür haben wir folgendes Anforderungsprofil:

  • Detaillierte Gesichtsanimationen um Mimik und Blickverhalten möglichst naturgetreu darstellen zu können.
  • "Einfacher" Umgang in der Entwicklung: Noch bin ich alleine mit der technischen Umsetzung beauftragt und habe schon einige Erfahrung in derProgrammierung, aber noch nichts in 3D, sondern eher in der wissenschaftlichen Datenanalyse. Ich suche noch einen Masterstudenten, der sich besser mit dieser Thematik auskennt, wer aus der Umgebung von Aachen kommt, kann sich gerne bei mir melden :)
  • Intregration von weiterer Hardware/Software: Wir nutzen ein AAM (Adaptive Appearance Model) um auf aus einem Webcamstream (in Echtzeit) entsprechende Parameter des Gesichtes zu extrahieren und auf einen Avatar zu übertragen. Desweiteren nutzen wir einen Eyetracker und eventuell eine Kinect. Die ersten beiden verfügen über Python Schnittstellen, eventuell sollen zukünftig auch VR Brillen mit integriert werden.

Ich habe jetzt einfach mal die Unreal Engine und die Unity Engine in Auge gefasst. Wenn irgendwelche Lizenzkosten im niedrigen 4 Stelligen Bereich zusammenkommen sollten, kann ich das dem Chef auch gut verkaufen.

Ich bin dankbar für jeden Tipp!

2

10.07.2015, 21:35

Mir fällt diese Masterarbeit von einem sehr netten Bekannten ein (Hamburg): Emotionen in Spielen und das Uncanny Valley

Ich glaube er hat sich bei seiner Umsetzung vor allem für Blend Shapes entschieden. Das wird glaube ich mittlerweile auch von Unity unterstützt.

Vielleicht kannst Du ihn ja mal kontaktieren.

Viel Erfolg!

Dieser Beitrag wurde bereits 1 mal editiert, zuletzt von »Chromanoid« (10.07.2015, 21:40)


Sacaldur

Community-Fossil

Beiträge: 2 301

Wohnort: Berlin

Beruf: FIAE

  • Private Nachricht senden

3

10.07.2015, 22:03

Die größte Schwierigkeit dabei, möglichst realistisch aussehende Gesichtszüge und Mimiken hinzubekommen, dürfte in der Erstellung der entsprechenden 3D-Modelle und dem Erstellen der entsprechenden Animationen liegen. Ich hätte auf Anhieb Unity und die Unreal Engine empfehlen können, mit denen das jeweils möglich sein sollte.
Mit ein wenig Aufwand sollten sich die Python Schnittstellen in beiden Engines ansprechen lassen, bspw. indem ihr Python-Scriptausführung selbst ergänzt (IronPython bzw. CPython einbinden und darüber die Scripte ausführen). Ideal wäre es, wenn es auch Schnittstellen für andere Sprachen gäbe, wie bspw. C# (bzw. .NET allgemein) für Unity oder C++ für die Unreal Engine. Gerade die Kinect habe ich bereits in Verbindung mit Unity schon im Einsatz gesehen, daher denke ich mal, dass es nicht zu schwierig sein sollte.

Ich kann allerdings nicht sagen, mit welcher der beiden Engines ihr einfacher an euer Ziel kommen werdet. Ich habe zwar Erfahrungen mit Unity, nicht aber mit der Unreal Engine. Auch habe ich in Unity (und vor allem nicht in der Unreal Engine) mit den für euch relevanten Aspekten zu tun gehabt (realistische Gesichtsanimationen, Ansprechen der entsprechenden Schnittstellen, ...).

Ansonsten wünsche auch ich schonmal viel Erfolg mit dem Projekt. ;)
Spieleentwickler in Berlin? (Thema in diesem Forum)
---
Es ist ja keine Schande etwas falsch zu machen, als Programmierer tu ich das täglich, [...].

4

11.07.2015, 00:33

Danke für eure schnellen Infos, die Masterarbeit ist für uns auf jeden Fall sehr interessant, die werde ich mir anschauen und ggf. mit dem Autor versuchen Kontakt aufzunehmen!

xardias

Community-Fossil

Beiträge: 2 731

Wohnort: Santa Clara, CA

Beruf: Software Engineer

  • Private Nachricht senden

5

13.07.2015, 04:50

Realistische Animation von Gesichtern ist definitiv eine Herausforderung und benoetigt nicht nur gute Entwickler sondern auch gute 3D Artists. Daher wuerde ich da versuchen auf fertige Softwarepakete zu setzen, under dem stichwort "facial animation" findet sich dazu einige Produkte. Ich vermute, dass diese nicht guenstig sind, aber fuer ein Forschungsprojekt kann man ja oft nen gutes Angebot bekommen.

Ich habe vor einiger Zeit mal bei der Virtual Reality Group der RWTH gearbeitet, dort gibt es sehr viel Praxiserfahrung mit Computergrafik. Es wuerde sich denke ich lohnen mit denen mal Kontakt aufzunehmen: http://www.itc.rwth-aachen.de/go/id/eubl

PS: Eventuell waere es eine Alternative Videos/Photos von echten Personen statt Computeranimationen zu verwenden? Gerade was Emotionen angeht gibt es ja verdammt viele Details die u.U. schwierig in Computergrafik darzustellen sind. Daher verwenden viele Filme heutzutage Face Tracking um die Mimik vom Schauspieler auf das 3D Modell zu uebertragen, Visage Technologies macht sowas glaube ich: http://www.visagetechnologies.com

Dieser Beitrag wurde bereits 1 mal editiert, zuletzt von »xardias« (13.07.2015, 04:56)


6

07.08.2015, 12:27

Wir sind ein bisschen weiter gekommen: Wir haben uns (vorläufig) für die Unreal Engine entschieden, da diese im Gegensatz zur Unity Engine für uns kostenfrei nutzbar ist. Hat jemand noch dennoch Erfahrungen mit Blender? Grundsätzlich scheint die Umgebung ja auch interessant zu sein, bietet viele Features und ist freie Software.

Zwei Sachen möchte ich noch einmal genauer erläutern: Grundsätzlich würden wir selber die 3D Avatare erstellen bzw. einkaufen, kann man diese ebenfalls durch Photos aus verschiedenen Blickwinkeln automatisch erstellen lassen? Die fazialen Animationen sollen durch die Extraktion aus einem Webcamstream automatisiert erstellt werden (auch in Echtzeit), dazu nutzen wir eine verwandte Lösung hierzu http://face.ci2cv.net . Wir werden wohl versuchen, den Code so zu erweitern, dass wir die Tiefeninformation des Kinect Sensors ebenfalls nutzen können, um weitere Punkte zu gewinnen. Gibt es dazu Meinungen von Menschen, die sowas zu einmal ausprobiert haben? Übernehmen wir uns hier?

Wir haben schon ersten Kontakt zu den entsprechenden Lehrstühlen in der Informatik hier in Aachen aufgenommen, werden das, wenn wir weiter sind auch noch einmal intesivieren, aber erstmal müssen wir uns selber einen Überblick verschaffen, die empfohlene Masterarbeit war schon mal ein guter Einstieg!

Werbeanzeige