1. Liebe Forumsgemeinde,

    aufgrund der Bestimmungen, die sich aus der DSGVO ergeben, müssten umfangreiche Anpassungen am Forum vorgenommen werden, die sich für uns nicht wirtschaftlich abbilden lassen. Daher haben wir uns entschlossen, das Forum in seiner aktuellen Form zu archivieren und online bereit zu stellen, jedoch keine Neuanmeldungen oder neuen Kommentare mehr zuzulassen. So ist sichergestellt, dass das gesammelte Wissen nicht verloren geht, und wir die Seite dennoch DSGVO-konform zur Verfügung stellen können.
    Dies wird in den nächsten Tagen umgesetzt.

    Ich danke allen, die sich in den letzten Jahren für Hilfesuchende und auch für das Forum selbst engagiert haben. Ich bin weiterhin für euch erreichbar unter tti(bei)pcwelt.de.
    Dismiss Notice

GPU - Lohnt es sich?

Discussion in 'Kaufberatung [Hardware]' started by mosimoon, Oct 7, 2017.

Thread Status:
Not open for further replies.
  1. mosimoon

    mosimoon Byte

    Servus und Hallo,
    ich habe jetzt einpaar monate lang Geld für eine neue GPU angesparrt. Ich wollte mir eine GTX 1080 ti fürs rendering besorgen, jedoch habe ich heute gesehen das evtl. in März eine neue Generation kommen soll und vondaher bin ich mir nicht sicher ob es sich überhaupt noch lohnt momentarn 800€ für so etwas auszugeben.
    Kleine Info nebenbei:
    Momentarn habe ich eine GTX 770 mit der ich halt tage fürs rendern von 3D Szenen verbingen kann, welches die Stromkosten und die Helligkeit/Wärme in meinem Zimmer enorm erhöt. Das ganze ist nur ein Hobby mit dem ich ein bisschen "Taschengeld" verdiene.

    Wie würdet ihr in solch einer Situation entscheiden? Sollte ich evtl. einfach weiter sparen und jetzt einfach z.b. auf einen Ryzen oder Threadripper und DDR4 ram upgraden? (Besitze momentarn Xeon e3 1230v3)

    Grüße
     
    Last edited: Oct 7, 2017
  2. magiceye04

    magiceye04 Wandelndes Forum

    Ich würde nach Effizienz gehen.
    Und zwar sowohl beim Kaufpreis als auch bei den Stromkosten.
    Beim Kaufpreis wird das Top-Modell schon mal alt aussehen. Die billigeren Karten meistens auch. Am besten mal bei Geizhals schauen, was man an €/TFLOPS so erhält. Normalerweise sieht es in der Mittelklasse am besten aus.
    Bei den Stromkosten kommt es drauf an, wie gut Deine Software die theoretische Mehrleistung auch nutzt und was der Rest des PCs schluckt.
    Kann die Software vielleicht sogar mehrere Karten gleichzeitig nutzen?
    Die Rechenleistung skaliert relativ linear mit der elektrischen Leistung. Eine GT1030 braucht z.B. nur 1/10 des Stromes einer 1080ti, liefert aber dafür auch nur ca. 1/10 der Rechenleistung. Der Rest ist entsprechend irgendwo dazwischen.

    Ob Ryzen sinnvoll ist, hängt davon ab, was Du jetzt hast und was Du brauchst bzw. wie gut Du es nutzen kannst. Mehr kann man zu so einer viel zu allgemeinen Frage ja leider nicht sagen.

    Nvidia hat momentan keinen Grund, panisch irgendwelche neuen GPUs auf den Markt zu werfen, wie Intel das angesichts der erstarkten Konkurrenz durch AMD macht. Es gibt für die 1080ti irgendwie keine Konkurrenz. AMDs Topmodell Vega64 kann sich bei deutlicher Übertaktung ungefähr mit einer 1080 messen - bei doppeltem Stromverbrauch. Nvidia hat ja aus lauter Langeweile dann einfach noch eine 1070ti ins ohnehin schon dicht gedrängte Portfolio gequetscht.
    Die neue Generation ist bisher eher für "deep learning" gedacht. Ehe AMD nix nachlegt, braucht Nvidia die auch nicht auf den Spielemarkt loslassen.
     
  3. mosimoon

    mosimoon Byte

    Effizienz ist ein guter punkt. Da ich momentarn eine GTX 770 habe brauche ich bis zu 6 stunden etwas zu rendern, welches mit einer 1080 ti evtl. 20 minuten dauern würde und das heißt ich brauch meinen PC nicht so lange anzuhaben und ich kann eher weiter arbeite.


    Zu neuen Generationen:
    Nvidia Volta ist doch schon bekannt und das es irgendwann nächstes Jahr raus kommt ist wohl auch klar.


    CPU:
    Momentarn habe ich ein Xeon e3 1230v3, eine 8 Kerner würde auch schon sinn machen fürs Video editing, aber auch könnte ich evtl zu einer CPU based Render Engine zurückgreifen, da wäre eine 770 schon ausreichend, aber dies ist nicht immer möglich wenn ich z.b. mit Unreal Engine rendern möchte.

    Tut mir leid falls ich nicht alle punkte nennen kann, ist bisschen blöd am Handy.

    Gruß.
     
    Last edited: Oct 7, 2017
  4. magiceye04

    magiceye04 Wandelndes Forum

    Von der reinen Rechenleistung wärend das 11.340 und 3213 GFLOPS für die beiden Karten. Also Faktor 3,5 - bei nur minimalen Unterschieden im Stromverbrauch.

    Wie gesagt, bisher scheint NVIDIA die Volta eher für große Rechenzentren zu positionieren. Wann da Endkunden-Karten draus werden, hängt von vielen Faktoren ab.

    Der Xeon ist recht sparsam und kann 8 Threads verarbeiten. Da müsstest Du mal schauen, wie viel zur Arbeit er beiträgt. Wenn das nicht viel ist, dann kann der auch drin bleiben.
    Ich habe vom FX-8300 zum R7-1700 mal eben Faktor3 an Rechenleistung gewonnen bei zusätzlich noch weniger Verbrauch. Aber die paar Anwendungen, wo das ankommt und genutzt wird, kann man normalerweise an einer Hand abzählen.
     
Thread Status:
Not open for further replies.

Share This Page