Physikkarten Sinn oder Unsinn?

    • Physikkarten Sinn oder Unsinn?

      Hallo Leutles,

      Der "Neuer Computer"-thread hier im Hardwareforum hat mich auf eine Frage gebracht, zu welcher ich gerne eure Meinung hören möchte. Haltet ihr Physikkarten für Sinvoll für Flugsimulationen? Seid ihr der Ansicht sie könnten zukünftigen Flugsimulationen eher helfen oder denkt ihr sie wären nutzlos? Was denkt ihr darüber? Ist es eine Möglichkeit für bessere Flugsimulationen? Oder nur eine Möglichkeit zur Abzocke?

      Derzeit existiert nur das PhysX-modell von Ageia, bei der über eine gesonderte Zusatzkarte die Physik berechnet wird. Dabei wird von der Karte die komplette Spielphysik berechnet, also auch die Interaktion des Spieleravatars mit der umgebung. Der meistgenannte Kritikpunkt bei dieser Technik ist einmal die dafür notwendige PhysX-Physik-Engine und die Kosten für den Kauf einer PhysX-karte. Der Preis einer PhyX-karte liegt z.b. bei alternate zwischen 249,-€ und 269,- € plus Versandkosten. Derzeit unterstützt meines Wissens nur Ghost Recon Advanced Warfighter (GRAW) die PhysX-PPU (Physic Processing Unit). Allerdings wir die PhysX-karte dabei nicht ausgereitzt.

      Nvidia arbeitet an einer eigenen Art dem SLI-Physics, dabei soll in einem SLI-System bzw. dem Quad-SLI eine der Grafikkarten die Physikkberechnungen übernehmen. Allerdings handelt es sich hierbei im Gegensatz zum PhysX-modell nur um die Effektphysik, d.h. den optischen Part. Interaktion des Spieleravatars mit der Umgebung wird immer noch von der CPU abgewickelt. Nach meinen bisherigen Informationen wird dazu ein SLI-System mit mindestens Geforce 7600 GTs notwendig sein. Das ist meiner meinung nach eine Der Schwächen des Systems, das zwei Grafikkarten benötigt werden und noch ein SLI-Board, während das PhysX system nur eine Grafikkarte und ein Standard-Mainboard benötigt.(PCIExpress vorausgesetzt)

      Und wenn Nvidia was ankündigt ist ATI auch nicht weit, sie haben Crossfire-Physics angekündigt. Es Funktioniert sehr ähnlich wie SLI-Physics, allerdings können bis zu drei Grafikkarten eingesetzt werden, wobei die dritte Graka für die Physikberechnung zuständig ist und auch ein leistungsschwächeres Modell sein kann. Crossfire-Physics basiert ebenfalls wie SLI-Physics auf der HavokFX-engine die derzeit entwickelt wird. Hier befinde ich die Gleichen Schwächen wie bei SLI-Physics, reine Beschränkung auf die Effektphysik und den zwang zu zwei Crossfire-Karten einem Crossfire-Mainboard und eventuell noch einer dritten Grafikkarte.
      Laut meiner Quelle Computerbase hat ATI ihnen gegeüber verlauten lassen dass sie sich nur auf effektphysikberechnung beschränken werden.
      computerbase.de/news/hardware/…ni/ati_crossfire_physics/

      Dann existiert da noch die Möglichkeit die Physik bei Mehrkernprozessoren in einem Gesonderten Thread berechnen zu lassen. Dabei übernimmt ein Prozessorkern die Physikberechnungen oder der/die anderen Kerne die anderen berechnungen. Die PhysX-engine kann z.b. sowohl mit dem PhysX Chip als auch mit einem Dualcore prozessor zusammenarbeiten.

      Wie ich hörte arbeitet Microsoft bereits an einem eigenen Physikstandard ähnlich wie Direct3D für DirectX10.

      Warum also Flugsimulationen? Nun ja erstmal weil Flugsimulationen einen sehr großen Physikpart haben, z.b. hätten wir bei LockOn die Bereiche Flugphysik, Ballistik, die Auswirkungen von G-kräften auf Material und noch einige andere. Und nicht alle Bereich bei Flugsimulationen lassen sich mit hübschen effekten verbinden sondern sind manchmal unsichtbar aber doch bemerkbar, z.b. die Auswirkung von Thermik lässt sich nicht unbedingt mit einem Visuellen Effekt verknüpfen ist aber deutlich bemerkbar. Desweiteren gäbe es hier viele Möglichkeiten des einsatzes.

      Mein persönlicher Favorit ist die PhysX-engine da sie sowohl mit als auch ohne Chip arbeitet. Ein weiterer Vorteil ist meiner Meinung dass dafür weder ein Mainboard noch eine zweite oder gar dritte karte angeschafft werden müssten. Dann wird bei dieser Karte im gegensatz zu der ATI und nvidia-lösung die komplette Spielphysik von der Karte berechnet und nicht nur die Effekte. Im bezug auf Flugsimulationen finde ich das effektiver da bei einer Flugsimulation der Großteil der Physikberechnungen die im Hintergrund laufen nicht sichtbar ist. Desweiteren ist bei der ATI und Nvidia lösung noch kein Erscheinungstermin angegeben, während PhysX verfügbar ist.

      Die Möglichkeiten wären meiner Ansicht nach wirklich toll denn man könnte eine erweiterte Physikengine erstellen, die nicht nur die Flugphysik und Ballistik und das heutige kann sondern auch z.b. Statik simulieren kann und man Gebäude oder Brücken realistisch einstürzen lassen könnte. Zum Beispiel ist eine Bogenbrücke gegenüber Schäden in der Mitte des Bogens am Verwundbarsten, da dort die Brücke zusammengehalten wird. Nimmt man das Mittelstück heraus zerfällt der ganze bogen. Oder z.b. Wasser korrekt simulieren und z.b. so z.b. U-boote hätte die Tauchen könnten oder den korrekten Einsatz von Torpedos erlauben. Die Nvidia bzw. ATI-Technik halte ich eher für blender der sich auf Grafikintensive Spiele, ohne hochkomplexe Physik wie Shooter oder Strategiespiele eignen und weniger für Simulationen.

      Nun das ist meine Meinung, ich würde mich freuen die eurige zu hören.

      Many happy ladings

      Wolve
      Och nö, jetzt muss ich schon wieder eine neue Sig Schreiben, wo ist denn die alte Hin? ;)
    • ja, also ich würd sagen du hast alles zusammengefasst was es zu diesem thema zu sagen gibt. :)

      besonderers wichtig ist die unterscheidung zwischen gameplay-physik und rein optischer spielereien. und da stimme ich dir völlig zu. ob mir bei einer explosion in GRAW nun 10 oder 1000 steinchen um die ohren fliegen ist mir nicht allzu-wichtig. aber wenn umherfliegende trümmer autos zerbeulen und bäume abknicken wird es interessant. und auch für flusis kann man eigentlich nicht genug physik-berechnungen machen. wär doch klasse mal ohne hotkey-script n Kobra-manöver machen zu können. andererseits könnte ich mir vorstellen das sowas mit dem flugmodell der SU-25T bereits möglich wäre, wenns denn mal auf ne mig angewendet werden würde...

      persönlich denke ich das die ganze physik-hardware erst in ein paar jahren mit microsofts physik-schnittstelle massentauglich wird. genauso wie es mit 3D-Grakas und direct3d der fall war. aber bis dahin könnte die grafikkarten-basierte lösung mit der havok-engine weite verbreitung finden. havok ist ja schon jetzt marktführer was dedizierte physik-APIs betrifft. einen richtigen physik prozessor wie den ageia wird man aber weder mit zusätzlichen grafikkarten, noch mit weiteren cpu-kernen ersetzen können. die architektur der physikbeschleuniger ist eben speziell für diese aufgabe angepasst und erlaubt es zu einem wesentlich günstigeren preis die vielfache leistung von sauteuren high-end grakas und cpus zu erreichen.

      das is ja auch der grund warum es überhaupt soundkarten und grafikkarten gibt. die angepasste architektur berechnet sound- und grafikdaten wesentlich flotter als ein normaler hauptprozessor.

      allerdings ist die konkurrenz durch nvidia und ati ernstzunehmen, da die beiden firmen das marketing-potential von physikbeschleunigung für sich entdeckt haben. von ati fehlt bisher eine sinnvolle anwendung. die dritte grafikkarte im rechner wird wohl eher dem umsatz vom hersteller helfen als der rechenleistung im pc. nvidias sli-lösung ist der gleiche blödsinn in grün. allerdings hat man in die geforce 8800 bereits einen speziellen physikprozezzor integriert. da bin ich mal gespannt ob das auch nur ein marketing-gag ist, oder ob das tatsächlich was bringt.

      naja, ma guckn.
    • Hallo wolve,

      erstmal vielen dank für deinen umfangreichen beitrag. ich hatte mich damit noch gar nicht beschäftigt und finde es sehr interessant. mal schauen was sich durchsetzt. ich befürchte, es wird nicht PhysX sein, da nvidia und ati sicherlich ihre lösung mit etwas mehr dampf pushen können. und es wird auch wahrscheinlich microsoft wieder eine bestimmende rolle spielen. naja, ich bin gespannt, worauf sich die spieleentwickler stürzen.


      gruss, interceptor
    • Dieses Thema ist für Hardwarefreaks sicherlich hochinteressant.
      Man braucht es in Bezug auf Lock On, aber nicht weiter zu betrachten!

      Da LOMAC nicht einmal Dual Core Prozessoren unterstützt, braucht sich keiner
      Hoffnungen machen, dass ein Physikbeschleuniger hier etwas bringt.

      Es gibt bisher überhaupt nur ein Spiel (Ghost Recon), was damit läuft.

      Hier ein weiterer Testbericht (engl.):

      pcper.com/article.php?aid=274&type=expert&pid=4

      PS. Die Meinung von @Der_KHAN, in Verbindung mit SLI und LOMAC, kann ich
      leider nicht bestätigen.
      Wenn man das Preis/Leitungs-Verhältnis mal aussen vor lässt,
      bringt eine NV 7950GX2 Dualchipkarte im SLI Betrieb,
      doch eine wesentlich höhere Performance als eine Singlechip Karte. :D
    • @Viper jep ich glaube nicht dass wir noch eine PhysX implementierung bei Lock ON erleben werden. Der Thread ist mehr so eine Reine Überlegungssache für zukünftige Flusis, da ich denke dass die idee hierbei richtig potenzial hat. Und man bei Flusis den Unterschied zwischen einer komplexeren Physik und einer einfachen sehr schnell merken würde.

      Das mit der GX2 karte und SLI........ich denke schon das das mehr leistung bringt, aber denk mal dran dass sich nicht unbedingt alle so ein teil oder gar zwei davon leisten können. Und dann liegen die noch preislich deutlich über einer PhysX-karte. Und da seh ich die schwäche von SLI/Crossfire-Physics, dass sie im Endeffekt nur auf leute beschränkt sind die viel zahlen können. Und ich finde dass sie nicht wirklich viel bringen im Vergleich zu PhysX. ATI hat groß getönt ihre lösung wäre besser als PhysX, nur später kam dann raus dass sie nur effektphysik machen und ihre Lösung bei spielphysik nur 10 bis 15% entlastung der CPU bringen würde und sie sich daher auf effektphysik beschränken würden. Und was ATi angeht............bin ich seit dem ursprünglichen Crossfire-launch vorsichtig.

      @Interceptor ATI und Nvidia haben den vorteil dass vor allem shooter gerade stark sind und bei denen ist die Physik selten so aufwendig wie bei einer Flusi und da lässt sich ein großteil der Physik mit netten effekten austatten. Und ich hab das gefühl dass sind zwei Riesen die bei allem neuen "wir auch" schreien aber nicht wirklich an einer weiterentwicklung interessiert sind. Warum auch? :D Könnte ihre Marktposition gefärden.

      Das Problem bei GRAW ist dass die PhysX-PPU dabei nur unter ihren möglichkeiten eingesetzt wird und nur für mehr eyecandy sorgt und nicht für eine komplexere Spielphysik. Und das könnten auch die Nvidia oder ATi-systeme. Allerdings habe ich mitgekriegt das bei einigen Tests nach FPS gemessen und bewertet wird was ich doch für etwas seltsam halte. Bei Grakas ok, aber mehr leistung wurde bisher nur dazu eingesetzt um etwas komplexer und besser zu machen. Wenn man also die PhysX ausnutzt dann glaube ich nicht dass das in höheren Frameraten endet sondern in einer besseren Physik mit vlt. sogar weniger FPS. Aber die Qualität der Physik wäre höher. Also ist die Testart mittels FPS für mich nicht wirklich repräsentativ. Die frage ist nur wie testen????
      Och nö, jetzt muss ich schon wieder eine neue Sig Schreiben, wo ist denn die alte Hin? ;)
    • Hallo,
      Ich wollt nur sagen, dass ich mich für eine 128MB Ageia PhysX Karte entscheiden werde. Bei Dell kostet sie 162,40€ Aufpreis und ich sag da nur was man hat, das hat man und wenn es mit Lock On zu Problemen kommen sollte kann ich sie ja immer noch ausbauen. Und veileicht hab ich ja Glück und es kommt irgendwann ein Flugsimulator raus der die Karte unterstüzt und ich somit ein tolles Flugerlebnis genießen kann.
    • Original von Nordic
      sorry, aber das is doch ohne sinn? warum eine karte kaufen, die noch kein spiel unterstüzt? wer weiss wie der stand der technik ist, wenn es irgendwann, ich betone irgendwann, eine sim gibt die physik karten etc unterstüzt? welche technologie wird dann genutzt?

      spar das geld


      Genauso ist es. Wir die anderen Dir schon geraten haben, kaufe die lieber nen TrackIR 4. Das ist echt der Hammer.

      gruss, interceptor
    • Original von ViperVJG73
      PS. Die Meinung von @Der_KHAN, in Verbindung mit SLI und LOMAC, kann ich
      leider nicht bestätigen.
      Wenn man das Preis/Leitungs-Verhältnis mal aussen vor lässt,
      bringt eine NV 7950GX2 Dualchipkarte im SLI Betrieb,
      doch eine wesentlich höhere Performance als eine Singlechip Karte. :D
      oh, da hab ich mich vielleicht etwas missverständlich ausgedrückt. ich meinte die SLI-Lösung wo die zweite Graka zur berechnung von Physikeffekten statt zur berechnung von Grafik eingesetzt wird. das is ja nun wirklich blödsinn.