Bulletchief
Rear Admiral
- Registriert
- Nov. 2011
- Beiträge
- 5.484
Noch eine Karte im Mittelklassesegment der letzten Generation?
Das muss ja dann nur über den Preis gehen...
Das muss ja dann nur über den Preis gehen...
Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.
Und ich Frage mich ob du meine Posts überhaupt liest, denn dass die TDP nicht dem realen Verbrauch entspricht, habe ich selbst geschrieben.XTR³M³ schrieb:du weisst schon das die TDP angaben bei AMD wie auch intel nixsagend sind?
manchmal frage ich mich wirklich ob leute sich überhaupt informieren hier!?
Danke für den Link. Hilft dem Verständnis.v_ossi schrieb:Hier wird's trotzdem ganz gut erklärt.
rg88 schrieb:[...]Ein neues Modell hat finanziell nur Sinn, wenn es teurer verkauft werden kann oder durch Kosteneinsparungen in der Herstellung deutlich billiger wird, wodurch man dann am Markt einen besseren Preis bieten kann.
Hier in diesem Fall, wäre es bescheuert, weil die Herstellung nicht billiger wurde.
Wahrscheinlich eine Rusty Sample.Hurricane271 schrieb:75 Watt x5 = 375 Watt, interessante RX 570 die du gefunden hast
Luxmanl525 schrieb:Hallo zusammen,
@ just_fre@kin
Das hätte ich doch gerne etwas erläutert. Von welchen Machenschaften redest du da?
Hurricane271 schrieb:Aus dem Zusammenhang würde ich meinen, er meint mit Machenschaften die 1050ti. Falls nicht würde ich das auch gerne erklärt haben.
Ctrl schrieb:.. dürfte nicht ganz das level einer ur-alten GTX 980ti erreichen.. beeindruckend
Blutschlumpf schrieb:@Hurricane271 / rg88 Ne RX460 braucht real keine 75Watt, eher so 40-50 (wobei meine passiv und ohne Stromstecker ist und evtl.von Werk aus was weniger braucht).
Ich habe mir ne MSI Armor 8GB gekauft (totaler noname also), keine gebrauchte China-Mining-Karte vom Flohmarkt.
Wenn ich das Power-Target erhöht habe (einzige Möglichlichkeit, dass das Teil nicht direkt runtergetaktet hat), lag ich ganz flott bei 300W.
idle hab ich 100W (incl. Monitor, An der Steckdose gemessen), RX460 GPU-load 140-150W, RX570 je nach Power Target Region 250 bis über 300Watt.
Selbst wenn ich alles auf ein Minimum runtergetaktet habe (max. 900Mhz bei afair 850mV) hat Furmark noch über 200W aus der Dose gekitzelt.
Und selbst da war die Karte noch hörbar.
Evtl. sind eure PC einfach so laut, dass man nen Lüfter nicht raushört.
Blutschlumpf schrieb:RX460 40-50 Watt, RX570 200 Watt, macht Faktor 4-5 bei doppelte GPU-Leistung.
Den Wert des Basissystems rechne ich natürlich raus.
Mag sein, dass ich dann ne Abweichung Region 10 Watt habe, aber 50-60 Watt zu 210 Watt sind immer noch zu viel Delta für die gebotene Mehrleistung. Von mir aus ersetz die 5 durch ne 4 wenn du dann besser schlafen kannst.
Oneplusfan schrieb:Sorry, jetzt kann ich dir nicht ganz folgen. Wenn eine neue Karte eine über 2 Jahre alte Karte ersetzt (oder ergänzt), dabei 20% mehr Leistung bringt, allerdings auch 20% mehr kostet, inwiefern ist das jetzt ein guter Deal? Und obs ne neue Architektur ist oder nicht ist hier auch unerheblich, wir reden hier von 2 Jahren.
Bei Nvidia wurde noch rumgeflamed, dass ne 2080 so viel kostet wie ne 1080ti (was im Übrigen nicht mehr stimmt, man konnte 10 min lang man bei Mindfactory eine 2080 für 527€ bekommen, die wurde auch geliefert), aber wenn AMD sowas bringt ist es toll?
Generell falsch.Taxxor schrieb:Und das ist genau das, was Igor beim 2700X gemacht hat. Der Verbrauch wird vom Board auf die TDP begrenzt, welche bei 105W liegt.
Der 1800X wurde aber nicht auf seine TDP begrenzt ansonsten hätte er nur 95W verbrauchen können.
Und genau deswegen kann man aus Igors Test nicht ableiten, ein 2700X wäre bei gleichzeitig mehr Leistung sparsamer als ein 1800X.
Dafür musst du beide CPUs auf dem gleichen Board und ohne Limits testen.
Shoryuken94 schrieb:Da gehe ich sehr stark von aus. Bis dahin wird sich nicht so viel tun. Hat es effektiv die letzten zwei Jahre auch nicht. Gab da nur wenige Ausreißer und die waren meistens auch nur schlecht portiert.
Mit der Nano machst du da wenig Falsch, wenn dir der Vram noch reicht, ist es auch heute noch eine tolle GPU
Warum sollte Nvidia auch, die Leute kaufen es doch eh so oder so. Egal ob Resteverwertung, falsche produktangaben oder sonst was. Der Name alleine verkauft es schon. Ich kann mir aber vorstellen, dass sie noch viele GP104 Chips haben. Als 1080 möchte man die nicht verkaufen, weil man lieber 2070s verkaufen möchte. Aber teildeaktiviert als 1060(Ti). Warum nicht. Kann man gut zeit mit überbrücken, bis man eine echte neue Mittelklasse Karte hat.
Ach Nvidia ist doch egal, was es mal gab oder wieder gibt. Gab auch noch nie eine XX70 Karte mit 106er GPU, eine XX70Ti gab es bis zur 1070Ti auch noch nie. Wenn sie einen markt dafür sehen warum denn auch nicht.
Drauf wetten würde ich nicht, aber unwahrscheinlich ist es auch nicht.
Shelung schrieb:Naja ob die 2000er wirklich mehr Leistung fordert?
Wie niedrig geht die Spannung beim 1600/x bei 4/4,2 Ghz?
Der 2600/x macht unter 1,3V.
Taxxor schrieb:Der 1600X läuft ja auch Stock nicht mit diesen Taktraten, der 2600X schon. Die Spannung des 2600X für 4,0GHz wird ähnlich der des 1600X für 3,7GHz sein. Damit verbraucht der 2600X trotzdem mehr.
Genau so wird es auch bei der RX590 laufen, 1500MHz der 590 werden so viel Spannung benötigen wie 1300MHz der 580, durch den höheren Takt verbraucht die 590 dabei aber trotzdem mehr, wenn auch weniger als eine 580 auf 1500MHz übertaktet verbrauchen würde.
FormatC schrieb:Generell falsch.
Der 2700X hält dank XFR2 und den NEU implementierten Features im Zusammenspiel mit Sensoren und der VR die vorgegebene TDP ein, der 1800X besitzt diese Features ja erst gar nicht. Und wenn dann der 2700X mit aktivierter Funktionalität trotzdem schneller ist, als so ein 1800X, dem der Saft nur so durch die Kehle rinnt, dann kann man das als Aussage schon so stehen lassen. Warum sollte man beim 2700X das also abschalten? Da steht im BIOS ja nicht 95-Watt-Limit drin. Ich hätte den 2700X natürlich auf einem alten Brett ohne passende Firmware testen können - aber wie bekloppt wäre das dann gewesen? Und nur weil ein Mainboardsteller mal wieder cheatet und sich NICHT and AMDs Vorgaben hält, um auch ja das "schnellste" Motherboard zu haben, werde ich genau diesen Umstand nicht auch noch unterstützen.