1. Liebe Forumsgemeinde,

    aufgrund der Bestimmungen, die sich aus der DSGVO ergeben, müssten umfangreiche Anpassungen am Forum vorgenommen werden, die sich für uns nicht wirtschaftlich abbilden lassen. Daher haben wir uns entschlossen, das Forum in seiner aktuellen Form zu archivieren und online bereit zu stellen, jedoch keine Neuanmeldungen oder neuen Kommentare mehr zuzulassen. So ist sichergestellt, dass das gesammelte Wissen nicht verloren geht, und wir die Seite dennoch DSGVO-konform zur Verfügung stellen können.
    Dies wird in den nächsten Tagen umgesetzt.

    Ich danke allen, die sich in den letzten Jahren für Hilfesuchende und auch für das Forum selbst engagiert haben. Ich bin weiterhin für euch erreichbar unter tti(bei)pcwelt.de.
    Dismiss Notice

Alter CPU, neue Grafikkarte

Discussion in 'Kaufberatung [Hardware]' started by Dennis Wehmeyer, Feb 23, 2017.

Thread Status:
Not open for further replies.
  1. deoroller

    deoroller Wandelndes Forum

    Die RX480 ist Mittelklasse und die CPU ist auch noch für schnellere Grafikkarten gut, wie GTX1070.
     
  2. Na, das hört man gerne!

    Das heißt, ich kann eine Grafikkarte nach Lust und Laune und Geldbeutel kaufen und muss mir keine Sorgen machen, dass die CPU zum Engpass wird?

    Am RAM (8GB (2x 4096MB) Crucial Ballistix Sport DDR3-1600 DIMM) muss ich auch nichts machen, oder?

    Und das Netzteil reicht auch noch (Be quiet! BN143 System Power 7 Stromversorgung (450 Watt, 12V, ATX 2.3)?
     
  3. Boss im Block

    Boss im Block Ganzes Gigabyte

  4. deoroller

    deoroller Wandelndes Forum

    Bei der 270X mit 2GB RAM sind neue Spiele gerade noch spielbar. Die RX480 lässt mit ihren 8GB RAM maximale Einstellungen bei FullHD zu.
     
  5. deoroller

    deoroller Wandelndes Forum

    Der Monitor reicht noch sicher. Einen funktionsfähigen FullHD-Monitor gegen einen anderen FullHD Monitor austauschen, macht keinen Unterschied auf die Anforderung an die Karte.
    Wenn der neue 144Hz hat, dann muss die Grafikkarte etwas mehr arbeiten.

    Ein 180 Watt Netzteil reicht allerdings nicht mehr aus.

    Am besten machst du mal das Gehäuse auf und machst ein paar Bilder davon.
    Man kann da auch nicht einfach ein handelsübliches Standard-Netzteil einbauen, wenn das Mainboard spezielle Anschlüsse benötigt, die nur HP benutzt.
     
  6. 2016-12-25 10.21.12.jpg 2016-12-25 10.19.57.jpg 2016-12-25 10.20.53.jpg
    Ich weiß, nicht die besten Bilder...
     
  7. deoroller

    deoroller Wandelndes Forum

    Das Netzteil hat keinen extra PCIe-Stecker für eine Grafikkarte. Das und die 180 Watt, machen es ungeeignet für eine Grafikkarte, die einen zusätzlichen Stromanschluss benötigt. Man kann zwar einen Adapter benutzen, aber bei dem weiß man nicht, wie er das Netzteil belastet und vor allem, ob er nicht zusammen schmort, wenn die Grafikkarte darüber 75 Watt zieht.

    Du hast das Netzteil so ungünstig photographiert, dass man nicht sieht, welche Bauform es hat. Einen gewöhnlichen 24-poligen ATX-Stecker hat es. Den CPU-Stecker sieht man nicht.

    Der obere SATA-Stecker kann der Grafikkarte im Weg sein. Dann kann man ein Kabel mit einen abgewinkelten Stecker nehmen, der unter die Grafikkarte geht.

    Die Alternative ist, eine Grafikkarte nehmen, die keinen zusätzlichen Stromanschluss hat.
    Das sind RX460 und GTX1050ti.
     
  8. Okay, danke für die Hilfe. Kann keine anderen Fotos machen, da das nicht mein Rechner ist. Dann muss ich es im Zweifel einfach mal ausprobieren mit einem neuen Netzteil. Vielleicht warte ich auch noch ein bisschen und spendiere dem Inhaber des Rechners auch ne gescheite Grafikkarte. Die CPU wird ja auf absehbare Zeit noch genug Power haben...
     
  9. PS: Ich hätte den Recher ohnehin nicht gekauft. Aber es gibt halt beratungsresistente Leute...
     
  10. chipchap

    chipchap Ganzes Gigabyte

    Ich wußte nicht, daß HP einen solchen Driss baut.
    Mehr als Büroarbeiten ist da nicht und eine RX 480 Geldverschwendung.

    Der Chipsatz hat nicht mal einen Kühler ... :no: .
     
Thread Status:
Not open for further replies.

Share This Page