Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Erster Test der Nvidia GeForce GTX 680
- Ersteller Volker
- Erstellt am
- Zur News: Erster Test der Nvidia GeForce GTX 680
Deine Argumente sind wirklich zahlreich. Und dann erst die Quellen die du nennst. Da kann man dir einfach nur glauben.Kriegsgeier schrieb:Leute!!! Es wird kein GK110 - Chip geben! Mehrkt ihr es nicht? Es bleibt bei GK104 und für Highend wird NVIDIA eine Duale-GraKa (2 x GK104) rausbringen. Punkt aus Nikolaus.
Ja klar, GK104 ist kleiner als nen GF114. Aber nen größerer Chip ist natürlich nicht machbar...Ein GK110 mit 512 Bit wäre zu heftig was Leistungsaufnahme und Entwicklungskosten angeht.
Hat ja die Vergangenheit gezeigt wie unmachbar Chips mit 512 bit SI und über 500 mm² Größe sind.
Sorry aber das ist doch vollkommen übertrieben. 2 GB reichen momentan mehr als Dicke und werden so schnell auch nicht ausgehen. Das hat nichts mit geizen zu tun sondern mit Wirtschaftlichkeit. Man verbaut nicht Unmengen an Speicher die so gut wie gar nichts bringen. Da gibts dann ein paar Modelle von den Herstellern die mit 4 GB kommen. Können sich ja diejenigen kaufen die es brauchen.Kouya1600 schrieb:Ich verstehe es nicht wieso NV mit dem Vram so geizt. So ist man ja gezwungen eine neue Karte in ein paar jahren zu kaufen weil der Vram ausgeht.
Sicher sollten Grafikkarten nicht zu knapp am Limit gebaut werden, wie damals ne 9800GTX mit 512MB oder die alte 8800GTS als 320 MB Version. Aber jetzt hier schon über den Speicher zu lamentieren halt ich für übertrieben.
Ist doch so gar nicht korrekt. Es ergeben sich immer Unterschiede aufgrund der Breite des Speicherinterface. Meist wird immer die kleinstmögliche Anzahl an Speicherchips (8 bei 256bit, 12 bei 384 bit) bei aktuell gängiger Kapazität (zuzeit 2Gb) genutzt. Bei der GF400 lag man mit 1,5 GB zB vor der 5870 mit nur 1GB. Ne 4850 hatte AMD auch nur 512MB spendiert. Nicht gerade üppig. Die 3870 kam auch nur mit 512 MB. Weniger als zB eien 8800GTX hatte.Was mich wirklich mal interessiert ist warum NV generell weniger Vram verbaut als AMD?!
EDIT:
Wo ist denn eigentlich unser Pausenclown Nokia n97 mini hin?
Der müsste uns doch jetzt eigentlich schön erklären dass der Test hier nen fake ist und er doch recht hat.
Zuletzt bearbeitet:
MADman_One
Captain
- Registriert
- Sep. 2004
- Beiträge
- 3.705
R3sist_the_NW0 schrieb:Der einzig sinnvollste nächste Schritt ist der, daß man sich bei Verkaufsstart der GTX 680 ganz einfach ne Karte der älteren Modelle kauft, da sie doch hoffentlich günstiger werden.
Nope, wäre für mich nicht sinnvoll...das wäre ein Downgrade bei mir
Nicht von Dir auf andere schließen
S
Stuntmp02
Gast
YES! Nvidia bringt ein MONSTER und AMD darf wieder über den Preis kontern
Ich will wieder eine Budgetkarte ala HD7970 für 200€ wie damals die 3/4870
Ich will wieder eine Budgetkarte ala HD7970 für 200€ wie damals die 3/4870
pipip
Fleet Admiral
- Registriert
- Jan. 2011
- Beiträge
- 11.409
Ameisenmann
was gestorben ist, auf was verzichten oder warten zu können. Könnte man das wäre der Markt wahrscheinlich ausgeglichener.
Außerdem darf man nicht vergessen wie jung der 28 nm Prozess ist, und wie lange wir 40 nm schon haben. 5870 war zwar damals günstig, aber schnell ausverkauft. Die 5770 war zu der Zeit der absolute Kassenschlager, direct x11 und effizienter als die 4870. Aber auch hier gab es ne zeit lang enpässe. Genauso wie bei der 6870. Eventuell gibt es von der 6000HD noch genug Nachfrage, und es gibt genug leute die keine Getuld haben oder einfach jz eine neue Karte kaufen wollen, dass man die wenigen 28 nm eben teurer verkaufen kann.
Ich wett die meisten die sich über die Preise aufregen, schenken selber selten was her.
was gestorben ist, auf was verzichten oder warten zu können. Könnte man das wäre der Markt wahrscheinlich ausgeglichener.
Außerdem darf man nicht vergessen wie jung der 28 nm Prozess ist, und wie lange wir 40 nm schon haben. 5870 war zwar damals günstig, aber schnell ausverkauft. Die 5770 war zu der Zeit der absolute Kassenschlager, direct x11 und effizienter als die 4870. Aber auch hier gab es ne zeit lang enpässe. Genauso wie bei der 6870. Eventuell gibt es von der 6000HD noch genug Nachfrage, und es gibt genug leute die keine Getuld haben oder einfach jz eine neue Karte kaufen wollen, dass man die wenigen 28 nm eben teurer verkaufen kann.
Ich wett die meisten die sich über die Preise aufregen, schenken selber selten was her.
Haldi
Admiral
- Registriert
- Feb. 2009
- Beiträge
- 9.721
Hahahaha ja klaar. Gross bewerben nur 195W und nebenbei super dolle über "Boost" werben! MIT boost braucht die sicher au 250W bin mal sehr auf den CB Test gespannt.
Aber ansonsten muss man sagen gute arbeit Nvidia! Was natürlich absolut hammermässiges Killer Feature ist. Adaptives VSync! Damit kann man im SLI die seltenen MikroRuckler auf Nahezu 0 runterbringen! Wenn AMD da nicht schleunigst Kontert muss man sagen: Crossfire kann man in die Tonne klappen. SLI soll man nutzen!
Aber ansonsten muss man sagen gute arbeit Nvidia! Was natürlich absolut hammermässiges Killer Feature ist. Adaptives VSync! Damit kann man im SLI die seltenen MikroRuckler auf Nahezu 0 runterbringen! Wenn AMD da nicht schleunigst Kontert muss man sagen: Crossfire kann man in die Tonne klappen. SLI soll man nutzen!
Kung-Fu-Tse
Banned
- Registriert
- Feb. 2010
- Beiträge
- 229
pipip schrieb:...
Ich wett die meisten die sich über die Preise aufregen, schenken selber selten was her.
aha, dann BITTE doch an dein eigenes Wort halten:
pipip schrieb:...
Bitte nicht generalisieren, damit nicht über sowas sinnlos diskutiert wird.
Dein Wort in Gottes Ohr...
PS: zu deinem 1. Zitat: hast zu viel Geld? Andere hier bei CB, CB selbst und ich brauchen gerne etwas Geld, dann schieb mal BITTE Geld rüber, oder noch einfacher gesagt: lass doch einfach solch einen scheiss, sprich Vergleich mit "Ich wett die meisten die sich über die Preise aufregen, schenken selber selten was her"
Echt abnormal der Mann / die Frau.
echt eine bodenlose Frechheit
was soll denn deiner Meinung denn GK110 mehr haben als GK104? Wenn du es gleich nennst, dann siehst du selbst, dass es wenig Sinn macht so ein Chip raus zu bringen.
wenn der Verbrauch der GTX680 wirklich nur bei 190Watt liegt, deutet das sehr darauf hin, dass Nvidia noch was Stärkeres in den Startlöchern hat
Sieht auf den ersten Blick nicht schlecht aus. Das absolute Heiligtum hat Nvidia damit aber auch nicht raus gehauen.
Naja, warten wir erstmal die ersten Post-NDA-Reviews ab. Aktuell wäre mir ein Sub-180-Euro-Ableger eigentlich auch wichtiger.
Naja, warten wir erstmal die ersten Post-NDA-Reviews ab. Aktuell wäre mir ein Sub-180-Euro-Ableger eigentlich auch wichtiger.
gino2780
Lt. Junior Grade
- Registriert
- Mai 2009
- Beiträge
- 453
Tomahawk schrieb:@R3sist_the_NW0
Findest du eine um 40% bessere Perf./W.-Leistung als Tahiti nicht gut? IMO ist das mehr als man erwarten konnte ...
40% bessere Performance? Beweise bitte...
sehr lange braucht sich nvidia aber trotz allem nicht auf den Pelz legen, denn die Marktanteile schwinden immer mehr. Da müssten sie in der Mittelklasse was P/L-technisch sehr Brauchbares an den Start bringen, wenn sie mittelfristig von AMD Marktanteile zurückgewinnen wollen.
Kartenlehrling
Admiral
- Registriert
- Apr. 2010
- Beiträge
- 8.377
Simon schrieb:Naja, warten wir erstmal die ersten Post-NDA-Reviews ab. Aktuell wäre mir ein Sub-180-Euro-Ableger eigentlich auch wichtiger.
Wenn sich die ganzen westlichen Computerforen und Presseseiten über die "ausführlichen" Leaks aus Asien beschweren werden die Infomationen und Benchmarks auch stimmten.
Rollkragen schrieb:dee Armen kaufen AMD und die anderen Nvidia. Wo ist das Problem, gute Leistung+Qualität muss halt auch bezahlt werden...wenn man es wirklich braucht bei den heutigen Konsolenportationen :=
Das wird sich wahrscheinlich nicht so schnell ändern mal schauen wan wieder das Flimmerproblem bei AMD kommt.
so ein beschissenes fanboy gelaber! wie alt bist du, 15?
Blediator16
Lt. Junior Grade
- Registriert
- Okt. 2010
- Beiträge
- 363
Kartenlehrling schrieb:Wenn sich die ganzen westlichen Computerforen und Presseseiten über die "ausführlichen" Leaks aus Asien beschweren werden die Infomationen und Benchmarks auch stimmten.
Nein das muss nicht unbedingt sein. Das Review ist sehr schlecht ohne anständigen Verbrauchsangaben und schlechten Tests. Wieviel Wahrheit in diesen Balken ist wissen wir auch nicht, da man sich soetwas auch zusammenrechnen kann.
Dein Beitrag ist ja mal echt Informativ...Haldi schrieb:Hahahaha ja klaar. Gross bewerben nur 195W und nebenbei super dolle über "Boost" werben! MIT boost braucht die sicher au 250W bin mal sehr auf den CB Test gespannt.
Aber ansonsten muss man sagen gute arbeit Nvidia! Was natürlich absolut hammermässiges Killer Feature ist. Adaptives VSync! Damit kann man im SLI die seltenen MikroRuckler auf Nahezu 0 runterbringen! Wenn AMD da nicht schleunigst Kontert muss man sagen: Crossfire kann man in die Tonne klappen. SLI soll man nutzen!
Mehr als 225 Watt kann die karte gar nicht ziehen und VSync ist der letzte Rotz in Shootern. Da hätte ich aber mal lieber mikroruckler als ein Inputlag. Und wozu SLI? Wenn eine GTX680 jetzt schon alle auf dem Markt erhältlichen Spiele problemlos darstellt.
bruteforce9860
Lt. Commander
- Registriert
- März 2009
- Beiträge
- 1.852
Oh Gott, noch eine Woche bis zum NDA
Dieses TXAA im direkten Vergleich zu 8xMSAA sieht ja mal genial aus.
Dieses TXAA im direkten Vergleich zu 8xMSAA sieht ja mal genial aus.
Dr. MaRV
Admiral
- Registriert
- Aug. 2006
- Beiträge
- 8.166
Ich habe meine Zweifel ob es für den Spiele- und Consumer-Bereich wirklich eine Karte mit GK110 geben wird, sollte dieser Test echt sein gibt es kaum einen Grund dafür. Darüber hinaus verstehe ich die Diskussion ob es so einen Chip nun geben wird oder nicht geben nicht. 90% der hier diskutierenden werden sich einen GK110, sollte er denn wirklich für den Consumer-Bereich kommen, eh nicht kaufen, weil entweder zu teuer (arm), selbst zu geizig, unnütz oder am Ende der Verbrauch doch zu hoch. Man sieht es doch schon wie hier über den möglichen Preis von etwas über 500 € für die GTX 680 gestöhnt wird, in welcher Welt lebt ihr denn? Macht die Augen auf und ihr werdet feststellen das die Spitzenmodelle nie billig waren, es hat nie ein HighEnd-Modell für 200 oder 300€ gegeben, solange es noch aktuell war und wenn ihr euch schon die "schlappe" GTX 680 die ja nur eine Performance-Karte sein soll, nicht leisten könnt, warum schreit ihr dann nach einer noch teureren mit GK110? Die GK104 hat nicht umsonst die Bezeichnung GTX 680, sie wird aktuell und auf mittlere Sicht höchstwahrscheinlich nVidias Topmodell und damit HighEnd-Gerät darstellen. Sollte es einen GK110 geben, könnte dieser auch möglicherweise auf GPGPU-Computing hin optimiert sein und damit für's Spielen nicht wirklich gut geeignet sein, darüber hinaus ist es auch fraglich, sollte denn dieser Chip kommen, ob er dann nur den Tesla und Quadro-Karten vorbehalten bleibt oder am Ende für 800-1000 € doch noch Einzug in den Consumer-Bereich findet. Aber jammert dann bitte nicht das euch die Karte 700 € zu teuer ist, dann fang ich an zu lachen.
Ähnliche Themen
- Antworten
- 29
- Aufrufe
- 2.216
- Antworten
- 139
- Aufrufe
- 12.033
- Antworten
- 93
- Aufrufe
- 11.293
- Antworten
- 18
- Aufrufe
- 2.083