1. Bitte immer die Rechnerkonfiguration komplett posten!
    Vollständige Angaben zur Konfiguration erleichtern die Hilfestellung und machen eine zügige Problemlösung wahrscheinlicher. Wie es geht steht hier: Klick.
    Dismiss Notice
  2. Liebe Forumsgemeinde,

    aufgrund der Bestimmungen, die sich aus der DSGVO ergeben, müssten umfangreiche Anpassungen am Forum vorgenommen werden, die sich für uns nicht wirtschaftlich abbilden lassen. Daher haben wir uns entschlossen, das Forum in seiner aktuellen Form zu archivieren und online bereit zu stellen, jedoch keine Neuanmeldungen oder neuen Kommentare mehr zuzulassen. So ist sichergestellt, dass das gesammelte Wissen nicht verloren geht, und wir die Seite dennoch DSGVO-konform zur Verfügung stellen können.
    Dies wird in den nächsten Tagen umgesetzt.

    Ich danke allen, die sich in den letzten Jahren für Hilfesuchende und auch für das Forum selbst engagiert haben. Ich bin weiterhin für euch erreichbar unter tti(bei)pcwelt.de.
    Dismiss Notice

ATI vs. NVidia - was sagt Valve Software?

Discussion in 'Grafikkarten & Monitore' started by Kokomiko, Sep 11, 2003.

Thread Status:
Not open for further replies.
  1. Kokomiko

    Kokomiko Guest

    Habe gerade einen interessanten Artikel im Inquirer über die DX9-Leistung von aktueller NVidia-Hardware gelesen.

    Valve, Entwickler von Half-Life und Half-Life, hat auf einer Präsentation detailliert mit projezierten Grafiken und Texten dargestellt, daß ATIs Hardware DX9-Funktionen in Half-Life 2 bis zu doppelt so schnell ausführt wie NVidia-Chips.

    Es wird weiter argumentiert, daß Half-Life 2 als eines der ersten, und sicher als populärstes DX9-Spiel für einige Jahre der Maßstab für Benchmarks und Tech-Demos sein wird, was sich für NVidia zu einem echten Problem entwickeln könnte.

    Daß NVidias Dawn-Demo von einer Radeon 9800 pro (wenn auch mit einigen wenigen Abstrichen) schneller ausgeführt wird als von einer GF FX 5900 pro, ist ja schon länger bekannt.

    Lt. dem Bericht stellt selbst eine Radeon 9600 pro Half-Life 2 ca. 50% schneller dar als eine GF FX 5900.

    Valve hatte offensichtlich solche Probleme, den GF FX-spezifischen Renderingpfad zu codieren, daß Half-Life 2 auf GF FX-Karten nur mit DX8-Funktionalität ausgeführt wird, was heißt, das einiges an Eye Candy für GF FX-Anwender flachfällt.

    Zwar bringt NVidia demnächst den NV38 (GF FX 5950 pro) mit bis zu 25% höherer Leistung als die 5900 pro raus, aber auch ATI hat mit der 9800 TX mit gegenüber der 9800 pro massiv gesteigertem GPU- und Speichertakt schon den nächsten Boliden in der Hinterhand.

    Vielleicht hat NVidia die Infusion von 3dfx-Know How nicht so besonders gut getan ... :rolleyes:
     
  2. Kokomiko

    Kokomiko Guest

    Ts ts, es gibt immer noch Leute, die sich GF FX-Karten kaufen und sich dann über Performance-Probleme wundern, dabei ist das inet voll von entsprechenden Berichten! :aua:
     
  3. Kokomiko

    Kokomiko Guest

    Karl,

    DX9-Spiele werden kommen, und sie werden DX9-Funktionalität nutzen. Valve hat ja bereits einen NVidia-spezifischen DX9-Pfad codiert, und selbst mit dem geben die Karten ein trauriges Bild ab.

    Das kein Spielehersteller an einem Graka-Hersteller mit 75% Marktanteil vorbei kann ist allerdings vollkommen richtig.

    Die andere Frage ist, ob NVidia an M$ vorbeikann ... die spezifizieren nämlich DirectX, und bei DX9 ist der Zug abgefahren. Vielleicht hast Du ja mitgekriegt, daß nicht mal Intel an M$ vorbeikann, und gegen Chipzilla ist Graphzilla ein Zwerg. ;)

    NVidia hat die Marktführerschaft wegen der schnellsten Hardware gehabt - die besten Treiber kamen erst danach - und wenn ATI hier lange genug die Nase vorne hat, wird sich das Blatt ruck-zuck wenden. Ich darf nur mal darauf hinweisen, daß ASUS jetzt Grakas mit Radeon-GPUs produzieren wird.

    NVidia hat DX9 auch nicht inkorrekt, sondern unperformant implementiert. Es ist eben eine Sache, einen Standard zu definieren und definitionsgemäß zu implementieren, und eine ganz andere, das performant zu machen. Man erinnere sich nur mal an die ersten 387-Chips und was AMD dagegen setzte: Das funktionierte, war aber zu langsam, die 387er waren einfach Klassen besser implementiert.
     
  4. Gast

    Gast Guest

    sers

    interessantes problem

    bin besitzer einer waaaaaaaaaaaaaahnsinnig tollen geforce fx 5200 lite karte (die es offiziell eigentlich nicht gibt, weiß der teufel warum) die ich bald in den müll treten werde...

    hier mein tipp half life 2 flüssig zu spielen:

    man nehme half life
    man engagiere so zwei drei modder
    man lasse sie mit der half life 1 engine halflife 2 nachbauen!

    läuft grantiert mit jeder geforce fx und mit jeder ati karte....

    möchte wetten wenn das spiel draussen ist macht das sogar jemand.

    Matrix hamse ja auch als HL mod rausgebracht (The Specialists)

    Also ich freu mich.....;-) und kram schon mal meine alte voodo karte vor.....muuuuuuuuuuahahaha....

    cu

    Übrigens noch nebenbei:

    Laut entwickler und einem interview der pcaction
    soll half life zwei ab einen pentium 733 laufen...und einer geforce zwo......mit grafischen abstrichen

    puah die meinten wohl du kannst mit!!! half life zwo laufen
    auf!!! deinem rechner......erinnert mich an rumpelstilzchen......
    *heute hack ich morgen kill ich...........die leute von nvidia*

    na wie auch immer

    ---
     
  5. Kokomiko

    Kokomiko Guest

    Karl,

    nicht ausweichen! :)

    Welches DX9-Spiel wirst Du bis Ende des Jahres kaufen können - wobei es bis dahin keine neue, erheblich verbesserte Grafikhardware geben wird?

    Wieviele Radeon-Besitzer (9500 und drüber) werden dann auch 2004 noch sehr glücklich mit ihrer Graka sein, wenn die DX9-Spiele purzeln werden?

    Wieviele GF FX-Besitzer werden in 3-9 Monaten schon wieder 400 Euro plus für eine brauchbare Hardware ablatzen wollen?

    ;)
     
  6. Kokomiko

    Kokomiko Guest

    Dir ist wohl entgangen, daß es speziell um die Leistungsfähigkeit bei DX9-Funktionen geht, und das Valve argumentiert, daß HL2 hier eine allgemeingültige Testumgebung darstellt, weil es in sehr breiter, universeller und praxisrelevanter Weise DX9-Funktionen verwendet - ähnlich wie Q3 jahrelang die Testumgebung für Grakas war.

    NVidia-Grakas schneiden mit DX8-Funktionalität sehr gut ab - das interessiert aber umso weniger, je mehr DX9-Spiele veröffentlicht werden.

    Das ist im technischen Kontext dieses Threads wieder falsch. Ich wiederhole: Es geht um die Leistungsfähigkeit bei der Ausführung DX9-spezifischer Grafikfunktionen. Gerade diese werden bei den kommenden Spielen entscheidend - nicht nur ein bißchen! - zur grafischen Qualität beitragen.

    Es geht nicht um Hype. Witzigerweise hat gerade NVidia versucht, mit speziell optimierten Beta-Treibern die HL2-Benchmark-Ergebnisse von GF FX-Karten aufzubessern, während ATI mit den ganz normalen Catalyst 3.7-Treibern offensichtlich sehr gut fährt.

    Karl, ich habe ohne böse sein zu wollen wirklich den Eindruck, daß Du meine Posts am Threadanfang nur sehr oberflächlich gelesen und/oder verdaut hast, sonst hätte Deine Antwort imo anders ausfallen müssen.
     
  7. Kokomiko

    Kokomiko Guest

    Für Euch, chriss und megatrend ... :D
     
  8. Kokomiko

    Kokomiko Guest

    Dirk,

    Valve kann hier kaum noch nachbessern! Die haben ja schon einen eigenen Renderpfad für GF FX gebaut, und das hat 5mal (!)solange gedauert wie der Standardpfad für DX9 und auch damit sind GF FX-Grakas immer noch deutlich langsamer als Radeons!
     
  9. Dirkomat

    Dirkomat ROM

    Kokomiko,

    du hast ja recht. Ich bin der Meinung, dass wenn ich ein Spiel produzieren würde, ich dieses für den Spielermarkt erstellen würde, und dieser stark von Nvidia geprägt ist.
    Also gehe ich davon aus, das Valve hier noch nachbessern muss, um eine größere Spielgemeinde zu bedienen. Ansonsten würde sich valve ins eigene Fleisch schneiden und sicher nicht in einer kurzen Zeit ihr Inverst amortisieren, was somit eine Geschäftsschädigung (hausgemacht) darstellt.
    Der lachende dritte ist ATI, denn dieses Spiel setzt neue Massstäbe und ihre GraKa werden mehr gefragt sein als zuvor.

    gruß
    dirkomat

    PS: der Trend geht zur Zweitkarte :p
     
  10. Kokomiko

    Kokomiko Guest

    Dirkomat,

    wenn Du genau gelesen hättest, wüßtest Du, daß Valve bereits einen speziellen Renderpfad für NVidia-GPUs codiert hat und diese trotzdem erheblich langsamer sind.

    Witzigerweise stellen Radeon-Karten auch NVidias Dawn-Demo erheblich schneller dar als GF FX-Karten.

    Wie meinst Du das mit geschäftsschädigend? US-Gesetze sind da etwas anders als unsere. Außerdem hat Valve schlicht Meßergebnisse präsentiert.

    Es ist eben einfach so, daß die aktuellen NVidia-GPUs mit Radeons nicht mithalten können.
     
  11. Dirkomat

    Dirkomat ROM

    @ Kokomiko,

    danke für deine ergebnisse. bin etwas überrascht!
    ich dachte der Benchmark soll am 30.09. herraus kommen! :confused:

    nun gut!

    wenn valve bei der programmierung ati favorisiert, wäre dies dann aber nicht geschäftsschädigend?
    den ich denke, es gibt mehr nvidia karten der etwas neueren generation als ati. so dass ich mir vorstellen kann, das valve hier für nvidia noch nachbessern wird. was vielleicht die verschiebung des .50 treibers erklärt.

    ich will dies mal hoffen, da ich auch so eine nvidia ti karte habe.

    gruß
    dirkomat
     
  12. Kokomiko

    Kokomiko Guest

    Update:

    Die von NVidia hochgelobten 50er Detonator-Treiber bringen's auch nicht. Inzwischen hat NVidia sie sogar wieder zu inoffiziellen Beta-Treibern erklärt ... :rolleyes:
     
  13. Kokomiko

    Kokomiko Guest

    Ist doch ein interessanter Thread für alle, die eine neue Graka brauchen und sich gerade überlegen, welche. :)
     
  14. Kokomiko

    Kokomiko Guest

    Wenigstens einer ... puh! :)
     
  15. Nor

    Nor Halbes Megabyte

    kann dir nur zustimmen, das ist ein sehr interessantes Thema welches ich auch seit langem verfolge.

    gruss
    nor
     
  16. Kokomiko

    Kokomiko Guest

    Findet das außer mir keiner interessant? :confused:
     
  17. Kokomiko

    Kokomiko Guest

    Hier die neuesten Neuigkeiten zum Thema.

    NVidia kann das natürlich nicht alles so auf sich sitzen lassen. Im wesentlichen halten sie dagegen, daß Valve mit einer Monate alten Version von NVidia-Treibern getestet hat (v.45), die wegen Entwicklung der nächsten, stark verbesserten Treiberversion (v.50) nicht mehr weitergepflegt wurde. Das weglassen von Nebel sei ein Bug, kein Versuch, durch Tricks Leistung zu schinden.

    (Der v.50-Treiber ist allerdings nicht fertig, und irgendwann muß Valve ja auch mal zu Ergebnissen kommen, besonders, wenn HL2 kurz vor der Fertigstellung steht und Entscheidungen wie die strategische Zusammenarbeit mit einem großen Hardware-Hersteller zu treffen sind!)

    Dazu käme, daß Valve Pixelshader v2.0 eingesetzt hätte, wo es auch v1.4 getan hätte.

    (Dazu meine ich allerdings, daß PS 1.4 irgendwann zwangsläufig von 2.0 abgelöst werden wird; das Argument zieht also nur vorläufig.)

    Schließlich sei auch klar, daß jede Hardware ihren eigenen optimalen Rendering-Code hat: NVidia-Hardware wird mit dem ATI-Code nicht optimal laufen.

    (Kommentar: Valve hat nicht von einem ATI-spezifischen Code, sondern von allgemein DX9-konformen Code gesprochen. Das klingt für mich danach, daß Radeons solchen Code sehr effizient und mit wenig Optimierungsbedarf ausführen).


    Ehrlich gesagt wünsche ich mir dennoch, daß NVidia wieder in die Hufe kommt, denn es ist keine gute Sache, wenn ein Hersteller allein den Markt dominiert.

    Ein stetiges Kopf-an-Kopf-Rennen zwischen ATI und NVidia würde mir am besten gefallen.
     
  18. Kokomiko

    Kokomiko Guest

    Falsch - Valve hat ohne AF und AA getestet! ;)

    Die AA-Performance von NVidia ist übrigens wesentlich besser geworden und liegt ungefähr gleich mit der von ATI.

    Der wesentliche Knackpunkt bei NVidia sind jedoch die Pixelshader.
     
  19. AMDUser

    AMDUser Ganzes Gigabyte

    Für mehr Hintergrundinfo?s wieso und warum dieser Vergleich so zustande kommt, der sollte sich die aktuelle c?t (19/03) besorgen und auf Seite 120 ff den der Mittelklasse-Karten Vergleich ATI vs. nVidia "reinziehen". Dort wird auch auf die bei den beiden Herstellern angewandte Technik bei AF und AA eingegangen und letztendlich lässt sich auch so das Abschneiden von ATI bei HL 2 erklären.
     
  20. Schmitti82

    Schmitti82 Byte

    Na das hört sich ja gut an für mich, Gott sei dank ich hab mir keine neue Nvidia Karte gekauft.

    Und HL 2 ist da erste DX9 spiel? Oder nur mit DX9 features wie Splinter Cell.

    Ich muss Korrigieren HL2 ist ein DX9 Spiel.

    mfg
     
Thread Status:
Not open for further replies.

Share This Page