News Nvidia senkt GeForce GTX 780 und 770 im Preis

User6990 schrieb:
Eine Gtx 480 hat um einiges mehr Strom verbraucht als eine 290X, und trotzdem konnte man sie vernünftig kühlen :rolleyes:

quatsch

R9 290X - 231W Quiet -> 306W Uber Mode
http://ht4u.net/reviews/2013/amd_radeon_r9_290x_hawaii_review/index21.php

GTX 480 - 230W
http://ht4u.net/reviews/2010/nvidia_geforce_gtx_480/index15.php

Im CB Test nicht anders! Vorallem da HT4U nur die GPU misst und CB das Gesamtsystem.

Deutlich leiser is die GTC 480 auch

R9 290X 4.0 - 7.4 Sone!
http://ht4u.net/reviews/2013/amd_radeon_r9_290x_hawaii_review/index19.php

GTX 480 5.4 Sone
http://ht4u.net/reviews/2010/nvidia_geforce_gtx_480/index14.php


@Mantle

Im einfachsten Fall macht AMD für den Nvidia Support ein Mantle -> DX11.2 Wrapper, dass DX11.2 also über Mantle angesprochen wird. Damit wäre der Vorteil für Nvidia natürlich = null.

@ Preissenkung

Die R9 290 (ohne X) wird wohl auf etwa GTX 780 @ stock liegen, paar % darüber. Gegen ne OC GTX 780 sieht sie wohl trotzdem erstmal alt aus, aber auch da werden Custom Designs kommen. Der Chip lässt mich aber vermuten, dass die Karte auch nahe am Anschlag ist mit maybe gar 1000 Mhz + @ stock.
 
Zuletzt bearbeitet:
GoZx schrieb:
jo absolut, dass ist auch ne komplett andere hausnummer wenn man auf 60 anstatt auf 95° zockt. Fühlt sich irgendwie sicherer/langlebiger an xD

:lol:

meine gtx260 läuft, seit ich sie hab gewollt mit 100-108 grad
(ca. 5 jahre)
Ergänzung ()

mackenzie83 schrieb:
ja genau, weil mantle ja so toll ist und revolutionieren wird.. so ein unsinn und immer wieder dieser mantle mythos/blödsinn :rolleyes:

heul hier doch nicht rum wenn es doch so schlecht ist, wart ab was passiert:rolleyes:
Ergänzung ()

Icipher schrieb:
Ihr immer mit eurem Mantle. Wenns der heilige Gral wäre, dann wäre irgendwer schon vor Jahren drauf gekommen.

jaja und ihr mit eurem wichtigen physiX was mittlerweile "jedes" spiel unterstützt:lol:

Icipher schrieb:
Genau! Du hast da aber etwas nicht ganz verstanden, G Sync verhindet nicht nur Tearing, sondern auch das "ruckeln" durch Framerate Einbrüche. Gerade für Leute die da sehr empfindlich sind werden sich dann beim Kauf eines neuen Monitors und Karte zweimal überlegen was sie kaufen, WENN es den propagierten Effekt bringt und wenn es vernünftig vermarktet wird. Das muss Nvidia erstmal beweisen/tun.

UND?,

1. der lag vergrößert sich bei dem tollen g-sync

2. g-sync unterstützt nur TN panles
 
Zuletzt bearbeitet:
Naja nur weil man bezüglich des Nutzen von Mantle skeptisch ist, bedeutet dies doch nicht, dass man einen hohen nutzen in PhsyiX sieht. Das man durch so etwas immer in ein bestimmtes Lager gedrängt wird.
 
Sinthuria schrieb:
Naja nur weil man bezüglich des Nutzen von Mantle skeptisch ist, bedeutet dies doch nicht, dass man einen hohen nutzen in PhsyiX sieht. Das man durch so etwas immer in ein bestimmtes Lager gedrängt wird.

Vollzitat und zu 100% sign. Ich brauche beides nicht.
 
Krautmaster schrieb:

Das ist ganz sicher kein Quatsch ;)

http://ht4u.net/reviews/2011/msi_geforce_gtx_580_lightning_im_test/index13.php Gtx 580 246W (+15W im Vergleich zur Gtx 480)

https://www.computerbase.de/2010-11/test-nvidia-geforce-gtx-580/25/ Gtx 580 -20W im Vergleich zur Gtx 480

Die Gtx 480 verbraucht sicher mehr als eine 290X ;)

Eine Gtx 480 verbraucht mehr als eine Gtx 580 diese wiederum verbraucht mehr als eine 7970, ich kann mir nicht vorstellen das eine 290X plötzlich so einen gewaltigen Sprung macht, und die Gtx 480 "vom Thron" stößt :king:
 
Zuletzt bearbeitet:
DarKRealm schrieb:
Bis es die Masse an Spielen gibt hat auch Nvidia eine dementsprechend Karte im Sortiment...

Wie Recht du hast! Wer Technik von (Vor)gestern kauft, der kauft eben 2mal!:evillol:

DarKRealm schrieb:
...und du willst wirklich behaupten das so Blockbuster wie Star Citizen in 4k Auflösung und max. Details, wenn es dann mal fertig ist, auf den aktuellen Karten noch flüssig läuft? ;)

Da Star Cizizen wohl ein Mantle Titel wird (Chris Roberts ist richtig angetan von den Möglichkeiten die Mantle den Entwicklern eröffnet), sollte es mutmaßlich auf einer 290X zumindest wesentlich geschmeidiger als auf einer Titan laufen!;)
 
Ne 770GTX für 274 € das doch mal ne Kampfansage von NV.

Die könnten ruhig bei der 760GTX auch noch mal nach unten korrigieren.
Eine 280x ist nur 20€ teurer.
 
Zuletzt bearbeitet:
Ob das jeder Hersteller auch 1:1 umsetzt ,bleibt abzuwarten. Glaube zum "Arschbeißen" wird es bei mir nicht kommen mit einem Limit von 350€+- :D !
 
Krautmaster schrieb:

:lol:

1. interessant wenn die 290x im uber mode 306w braucht, wie die testseiten dann diese karte übertakten konnten die müsste rechnerisch dann um die 350w verbrauchen,
.
denn 1x8pin+1x6pin+pcie= 300w
.
und ich hab noch keine grafikkarte gesehen die ab werk mehr Strom braucht als die norm. der stecker/Slots erlaubt

2. dann nehmen wir mal meine gtx580 classified Ultra die nur schlappe 370W aus der dose zieht
bzw. @980mhz um die 390-400w
 
Zuletzt bearbeitet:
lol-man schrieb:
jaja und ihr mit eurem wichtigen physiX was mittlerweile "jedes" spiel unterstützt:lol:

1. der lag vergrößert sich bei dem tollen g-sync

2. g-sync unterstützt nur TN panles

also wenn du wenigstens gelesen hättest was ich geschrieben habe, dann würdest du wissen das ich von PhysiX genausso überzeugt bin wie von Mantle. Und kA was du mit Lag meinst, aber der wird gerade reduziert, so steht es jedenfalls in jedem Artikel den ich bisher gelesen habe. Außerdem ist klar das G-Sync nur mit TNs funktioniert, die sind nämlich deutlich schneller als IPS und ich würde auch jedem FPS Spieler zu einem TN raten! Grafiker Fotografen etc nehmen natürlich IPS; aber nen Kompromiss gibts nicht wirklich.
 
siehst da unterscheiden wir uns, ich zock auf einem ips Panel, was ich niemehr gegen ein tn tauschen würde
 
Athlonscout schrieb:
Da Star Cizizen wohl ein Mantle Titel wird (Chris Roberts ist richtig angetan von den Möglichkeiten die Mantle den Entwicklern eröffnet), sollte es mutmaßlich auf einer 290X zumindest wesentlich geschmeidiger als auf einer Titan laufen!;)
Naja Star Citizen ist noch nicht einmal in der Beta angelangt. Mich würde interessieren wie es sich mit der Performance verhält wenn man auf eine größere Anzahl an Spielern trifft. Da wird es dann schon schwieriger werden, mit der Performance. Daher halte ich die Prognose, man könne das Spiel in einer 4K Auflösung in ausreichender Performance mit einer einzelnen 290x spielen, für verfrüht.
 
Ob das jeder Hersteller auch 1:1 umsetzt ,bleibt abzuwarten. Glaube zum "Arschbeißen" wird es bei mir nicht kommen mit einem Limit von 350€+- :D !

Jetzt schreien alle hura weil es die (neuen) karten für nur 4xx€ gibt?!
ohne worte...
:daumen:

......und eine 770 für unter 300! Die ist nun wirklich nichts anderes als eine 680 die es schon für 260 gab(gerade aber auch wieder 300+-) ist.In diversen Benchs ist die nur leicht vor einer 680 weil die meist im Standardtakt 1006Mhz und die 770 schon von Grund PCB wesentlich höher getaktet ist!
 
lol-man schrieb:
siehst da unterscheiden wir uns, ich zock auf einem ips Panel, was ich niemehr gegen ein tn tauschen würde

kein Wunder das du dann nen Input Lag hast. Mein Notebook Smartfon etc haben auch alle IPS, damit spiele ich aber auch nicht. Beides hat Berechtigung und alleine von den Farben und Kontrast ist TN nicht zugebrauchen. Aber ist ja auch nicht zum Arbeiten da.
 
lol-man schrieb:
:lol:

1. interessant wenn die 290x im uber mode 306w braucht, wie die testseiten dann diese karte übertakten konnten die müsste rechnerisch dann um die 350w verbrauchen,
.
denn 1x8pin+1x6pin+pcie= 300w
.
und ich hab noch keine grafikkarte gesehen die ab werk mehr Strom braucht als die norm. der stecker/Slots erlaubt

2. dann nehmen wir mal meine gtx580 classified Ultra die nur schlappe 370W aus der dose zieht
bzw. @980mhz um die 390-400w

das ist auch außerhalb der PCIe norm dann, na und, interessiert das beim OC? Dein PC geht nicht aus, auch nicht wenn du 500 W auf PCIe ziehst und dein PSU das ab kann.

Edit:

bei CB braucht die Kiste 56W idle, Last OC 423W+19W.
Ein Teil davon fällt auf die CPU, die GPU wird aber auch da bei >300W dastehen. Siehste auch an der Temp.

Schau dir den GTX 580 Test an, damals entfiel noch ein viel größerer Teil auf die CPU die idle schon mit über 150W dasteht. Da is das Delta zu GTX 480 + GTX 580 @ Last deutlich kleiner als heute bei der R9 290X.

Mit besserem Kühler wird die Temp sinken und damit auch der Verbrauch. Ich hatte mal nen Testsystem mit GTX 480 AMP SLI, mit zunehmender Temp fallen da 100W mehr an... die Temperatur macht da viel aus.
 
Zuletzt bearbeitet:
Ist das nicht eigentlich völlig Wumpe? Können wir uns nicht einfach drauf einigen, dass die High End-Karten eben auch nen High-Power Bedarf hatten/haben/haben werden?
 
eben. Ich hab ja nur der Behauptung wiedersprochen, dass die GTX 480 damals so viel mehr gezogen hat.

Wegen mir kann sie 400W ziehen wenn die Performance passt, der idle Verbrauch ist für mich entscheidend. Vorallem bei 2 Monitoren.
 
Zuletzt bearbeitet:
PiPaPa schrieb:
AMD fördert schon länger und besser die freien Treiber unter Linux.

Es ist aber nicht klar, wie ernst AMD es nun mit diesen Treibern meint. Mesa ist immer noch weit von OpenGL 4.0 entfernt, GCN ist mit freien Treibern der letzte Dreck und in letzter Zeit verbessert sich offenbar tatsächlich die OpenGL Performance von Catalyst, da etwas Besonderes zu erwarten wie den Umstieg auf freie Treiber, ist und bleibt leider nur Wunschdenken.

AMDs Open Source Engagement ist löblich und schön, für Gamer aber ziemlich uninteressant.
 
Zurück
Oben