6 Pin auf 8 Pin für GTX 1070 mit 1 mal 8 Pin

atoob

Cadet 1st Year
Registriert
Jan. 2012
Beiträge
9
Hallo, ich möchte in meinem PC eine GTX 1070 einbauen. Es gibt ja Modelle mit 8 Pin.
Allerdings hat mein NT (Media Markt PC 435 Watt) nur 1 mal 6 Pin. Zusätzlich hätte ich noch 1 mal Molex und 1 Mal Sata Stromanschluss. Ich könnte noch vom CD Laufwerk den Sata Stromanschluss nehmen und dann einen 2 mal Sata Stromanschluss auf 8 Pin nehmen. Nur welchen Adapter könnte ich nehmen. Gesucht wurde ein Adapter 6 Pin plus 1 mal Molex = 8 Pin. Gefunden udn bestellt habe ich nun 4 Polig ATX & 4 Polig LP4 Molex Zum 8 Polig EPS Strom Adapter Kabel. Wenn ich den 6 Pol in den 4 Pol stecken kann müsste es funktionieren oder muss ich zusätzlich etwas beachten. Beim Probieren kann ja nichts passieren.
Prozessor Q8200
1 mal SSD 1 mal HDD
 
Besorg dir ein passendes Netzteil. Der 6Pin ist für 75Watt ausgelegt, der 8pin für 150 Watt. Die anderen Anschlüße sind nicht dafür gedacht, dass du da mit Adaptern dran gehst.
 
die gefahr dabei ist: dein pc startet nicht oder stürzt bei volllast einfach ab. ist das der fall weisst du: netzteil wechseln, einer mit 8pin pci-e. von der wattzahl sollte das media-gerümpel reichen.

richtig: 6pin=75watt / 8pin 150Watt.
 
Ach ja: Die 1070 mit diesem alten, lahmen Prozessor ist keine gute Idee. Der wird dich gnadenlos ausbremsen. Das ist dir hoffentlich klar? (Geldverschwendung)
 
OK, das sollte man noch berücksichtigen. Ein Q8200 und eine 1070 ergibt keinen Sinn. Und auch das Netzteil sollte getauscht werden. Wie alt ist es? 8 Jahre? Kaufe Dir lieber eine kleinere GPU und dazu auch neue CPU / RAM / Board.

Du willst eine aktuelle 500€ GPU mit einer 8 Jahren alten CPU kombinieren? Deren Wert mit samt der restlichen Hardware nicht viel mehr als 50€ beträgt?
 
Zuletzt bearbeitet:
Welche Mehrleistung erhoffst Du Dir mit der alten CPU denn mit der neuen Grafikkarte?
 
@rg88: Dein Beitrag ist nicht nur falsch, er trägt auch nicht zum Problem bei. Jede Wette in Crysis1 auf 4K mit horrendem AA wird die GPU bremsen, nicht die CPU. Es gibt kein generelles "cpu bremst gpu" und auch nicht umgedreht. Es kommt darauf an, was man machen möchte. Eventuell will der TE ja auch in kleinen Teilen aufrüsten und fängt mit der GPU an.

Nachtrag: Nicht ganz falsch ist aber die Anmerkung, dass die CPU bei einigen neueren Spielen überfordert sein wird, das sollte atoob wissen. Der Gedanke, dass z.B. GTA V mit der neuen Grafikkarte erheblich schneller läuft verpufft vermutlich an der CPU. atoob, eventuell beschreibst du noch kurz, warum du auf die GTX 1070 wechseln willst und ob weitere Aufrüstpläne bestehen.

atoob schrieb:
Beim Probieren kann ja nichts passieren.
Ist so leider falsch. Du versuchst hier in einem (vermutlich sehr billigen) Netzteil über die Spezifikation hinaus Strom zu entnehmen. Der 6pin-Stecker ist bis 75W spezifiziert, der von dir benötigte 8pin-Stecker bis 150W. Du erzeugst also im Zweifel eine Überlast, und die kann dafür sorgen, dass nix passiert, dein Rechner ausgeht, dein Rechner gar nicht erst angeht, dein Netzteil durchschmort oder wegen versagender Schutzschaltungen weitere Hardware zerstört wird. Welcher Fall genau eintritt ist Glück und nicht vorhersagbar. Aber ich würde es mit dem Netzteil nicht probieren wollen.

Du bist ja schon bereit über 400€ für eine Grafikkarte auszugeben, da sollten weitere 60€ für ein vernünftiges Netzteil auch noch drin sein :) Beispiele für brauchbare Netzteile die auf deine Anforderung passen: CM G450M, BQ E10 400W.
 
Zuletzt bearbeitet: (Nachtrag zum "Limitiert"-Teil)
SoDaTierchen schrieb:
@rg88: Dein Beitrag ist nicht nur falsch, er trägt auch nicht zum Problem bei. Jede Wette in Crysis1 auf 4K mit horrendem AA wird die GPU bremsen, nicht die CPU. Es gibt kein generelles "cpu bremst gpu" und auch nicht umgedreht. Es kommt darauf an, was man machen möchte. Eventuell will der TE ja auch in kleinen Teilen aufrüsten und fängt mit der GPU an.

Klasse Beispiel. Nehmen wir doch alltagstaugliche Beispiele. Und da bremst bei jedem aktuellen Spiel in Standard FHD Auflösung mit moderaten Settings immer die CPU aus. Welches Szenario sollte Sinn ergeben, wo ein Q8200 und eine 1070 zusammen passen? Da fällt mir nur eines ein. Bei GPGPU Anwendungen. Aber die sind hier wohl irrelevant, denke ich.
 
@Soda: Man kann immer einen bescheuerten Fall konstruieren. Dass das ganze mit deinen Einstellungen dann bei ein paar fps rumdümpelt ist aber auch klar. Auch gehe ich nicht davon aus, dass jemand mit einem 8 Jahre altem System einen 4k-Monitor hat.
Für alle normalen Fälle stimmt mein Beitrag. Das ist ein uralter Quadcore mit 2,3Ghz und noch alter Architektur. Es ist schlicht Quatsch.

und zu "nicht zum Probelm beitragen": Das hab ich ihm oben schon beantwortet. Es ist durchaus sinnvoll jemanden auf ein dämliches Vorhaben hinzuweisen, nochdazu wenn er die Karte noch nicht hat.
 
Ändert nichts daran, dass die Aussage zu hart generalisiert war und an der eigentlichen Frage vorbei ging. Ich hab trotzdem oben mal einen kleinen Nachtrag eingefügt, da auch ich die Kombination ohne weitere Aufrüstpläne nicht für sinnvoll erachte. Als Übergangslösung aber machbar. Hier fehlt die Angabe eines Verwendungszwecks von atoob.
 
Was heißt hier generalisiert? Ich hab mich explizit auf die 1070 und seine CPU bezogen. Und diese Kombi ist natürlich Quatsch. Klar wird es schneller als mit seiner aktuellen laufen. Aber das macht es noch lange nicht sinnvoll. Das kann er mit einer weitaus günstigeren Karte genauso erreichen. Bringt nicht recht viel wenn die 1070 bei 40% Auslastung (-> nicht drauf festnageln, reines Bauchgefühl) rumdümpelt
 
Hallo,

ich kann da nur zustimmen, bei der uralten CPU bringt eine 1070 nicht wirklich viel für das was sie kostet. Da sollte auch ein leistungsstarker Unterbau vorhanden sein.

Und wenn das Netzteil so alt ist wie die CPU würde ich da keine 450 € Graka dranhängen!
 
@Soda: Für die allgemeine Spieleauswahl trifft die Aussage von rg88 zu. Also was heißt da "generalisiert" usw.? Du kommst mit einem Beispiel, das sicherlich nicht jeder im Alltag "anwendet" anstatt einfach dem TE zu helfen.

@TE: Es sollte alles gesagt worden sein, jedoch auch von mir: Es bringt nicht viel, die 1070 mit dem alten Prozzi zusammenzutun. Auch bräuchtest du ein neues NT.

Wenn du nichts, außer die Graka wechseln willst, dann hol dir lieber eine RX 480 mit einem 6-Pin Anschluss, glaube die PowerColor Red Dragon (nicht Red Devil) hat einen 6-Pin Anschluss.

Wobei auch die Rx 480 hier und da "ausgebremst" werden sollte mit der CPU.
 
Nicht sicher ob 75 Watt ausreichen, es soll schließlich keine FE Edition werden. Deswegen noch etwas Strom vom Molex. Aber gut wenn es nicht mit dem bestellten Adapter geht werde ich den Adapter holen.
 
Ohne Worte! :freak:
 
atoob: Die FE verbraucht nicht mehr Strom, sie ist nur teurer. Wenn du den Adapter ausprobierst, riskierst du deine neue Grafikkarte zu grillen. Und dabei greift die Garantie dann nicht. Du brauchst an der Stelle ein neues Netzteil (und im besten Fall auch einen neuen Unterbau)
 
Bis jetzt ist drin eine 4670 passiv, aber Witcher 3 bekommt man damit nicht richtig zum laufen. Vielen Dank, wusste nicht das es die RX 480 von einem Partner ebenfalls mit 6 Pin gibt. Interessant, die 4 GB Version benötigt 8 Pin, die 8 GB 6 Pin laut Mindfactory. Ich meinte die 1070 soll eine niedrigere TDP haben. Aber gut hauptsache 8GB und sollte der Q8200 zu langsam sein, Board und CPU ist schnell gewechselt (und RAM dann wohl auch :-( ), aber wenns auch ohne Wechsel geht warum dann. Monitor wird dann eben auch noch ein Weilchen ein Fhd bleiben. Anbei wenn der Prozi zu langsam ist und NT zu schlecht brauch ich ein neues NT CPU RAM Board kann ich mir gleich einen neuen PC kaufen^^
Ergänzung ()

Sie bekonnt wenn dann zu wenig Strom
 
Ein weiteres Problem kann noch auftreten: Dein Mainboard wird ohne aktuelles BIOS die 1070 gar nicht erkennen. Nur ne Vermutung, kenne das Modell ja nicht
 
Ich persönlich habe Erfahrung mit CPU Limit dieser Architektur mit deutlich langsameren Grafikkarten.
Ich hab in FHD das CPU Limit mit meiner HD4870 damals noch und dem auf 3.6 GHz übertakteten E7400 spüren dürfen....
Und das Spiel war nicht sonderlich CPU lastig... Eigentlich
 
Zurück
Oben