G80 NewsFlash

AW: G80 NewsFlash [Plz NO Flamer!]

die sache ist doch die: die spieler und entwickler wollen immer schnellere höher getaktete karten.

da ist es doch logisch, dass irgendwann (zumindestenz die spitzenmodelle) nur noch effizient mit H²O gekühlt werden.

und eine andere kühlung unterscheidet GT und GTX noch besser was sicher von Nv gewollt sein wird.
 
AW: G80 NewsFlash [Plz NO Flamer!]

Dennoch, so eine Wakü ist nicht ganz so günstig bewerkzustelligen wie eine Lukü.

Zudem ist das Risiko eines Defektes und dessen Auswirkungen wesentlich grösser.

Es ist immer zu beachten, das die Karten auch von absoluten "Newbies" ohne Probleme installiert und betrieben resp. mit Wakü unterhalten werden können.

Es muss also eine andere Möglichkeit geben.

mFg tAk
 
AW: G80 NewsFlash [Plz NO Flamer!]

1. wer ne GTX kauft ist bereit einen hohen aufpreiß zu zahlen. also macht es nix, dass ne wakü teuer ist.

2.
Es muss also eine andere Möglichkeit geben.
wie kärs mit kompressos oder stickstoff-kühler :D
wakü ist nun mal besser als lukü. ne andere möglichkeit wäre geringere taktraten, dass widerspricht aber dem prinzip immer mehr leitung!
 
AW: G80 NewsFlash [Plz NO Flamer!]

GeneralHanno schrieb:
die sache ist doch die: die spieler und entwickler wollen immer schnellere höher getaktete karten.

Naja schneller schon, aber von höher getaktet war die nie die Rede :D

Deswegen haben wir dieses sch*** problem ja überhaupt mit der Kühlung, nur mit Chipoptimierung gehts nit voran, aber andererseits bringt mir das nix wenn ich En big Tower brauch um die kühlung irgendwie da rein zu bekommen.

und da kann man mir erzählen was man will, ne WaKü als Standerd ist VIEL zu früh, das hätte man WENN auch langsamer machen KÖNNEN. Erstmal abwarten was kommt. Denn HYBRID sagt ja eigentlich nicht dass es eine normaler Wasserkühler wird sondern eine mischung aus O² und H²O. Das ganze durch C Röhrechen in Cu Kühler und nen CO² Filter [letzteres brauchen wir zum Glück noch nit^^]... :D :D :D :D
 
AW: G80 NewsFlash [Plz NO Flamer!]

Wenn ich mir einen Rechner für 1000€ kaufen würde, würde es mich nicht stören noch zweihundert draufzulegen und dafür eine perfekte Kühlung sowie eine hohe Leistung der Grafikkarte zu haben.

Das ist halt der Preis der Performance......;)
 
AW: G80 NewsFlash [Plz NO Flamer!]

Wakü hin oder her, mir geht es prinzipiell um die Einfachheit der Wartung. Und da sind Waküs nun mal etwas umständlicher.

Ich denke, wir lassen diese Diskussion jetzt mal auf sich beruhen und warten den Release ab. ;)

Bis jetzt sind es doch alles nur wilde Spekulationen. :D

mFg tAk
 
AW: G80 NewsFlash [Plz NO Flamer!]

Auch in Sachen Leistungsaufnahme wird die GeForce 8800 Serie ein neues Zeitalter einläuten. Laut DailyTech lautet die Empfehlung für die Leistungsfähigkeit des Netzteils bei Nutzung zweier Karten im SLI-Modus 800 Watt.
Also doch solche dreckigen Stromfresser, aber ich hoffe ja immer noch, dass das alles bloß Gerüchte sind:freaky:
 
AW: G80 NewsFlash [Plz NO Flamer!]

Der Wickermann schrieb:
Also doch solche dreckigen Stromfresser, aber ich hoffe ja immer noch, dass das alles bloß Gerüchte sind:freaky:


Kann schon sein, doch wenn sie wirklich ende November rauskommt wirds langsam Zeit mit den nackten Tatsachen.

bzw. das nenst du nen freak?^^
s315.gif
 
das sind vll die specs von 2 chips
38,4 gTexel/s sind etwas unrealistisch, würde bei dem takt 66 tmus ergeben wenn ich mich nicht verrechnet habe
aber schon toll das winfuture die texelfüllrate in gpixel/s angibt :stacheln:

und wie soll man bei 320bit und 900mhz takt auf 64GB/s kommen?


die news stimmt hinten und vorne nicht
 
Hab noch ein paar Artikel beim Inquirer aufgestöbert^^

http://uk.theinquirer.net/?article=34885
http://uk.theinquirer.net/?article=34879

Wir profitieren also davon, dass der Chip auch auf Quadro karten kommt, auf denen dann bis zu 1,5GB RAM verbaut werden kann [:freak: ]

Außerdem soll nVidia angeblich am 18. den EditorsDay statt finden lassen und dann 3 Wochen später der Hardlaunch in Europa.

aber wie gesagt.. Inquirer, man weiß ja nie :)

EDIT

Dazu gibts auch nen Thread mit Link ;)

http://www.gamestar.de/news/pc/hardware/nvidias_g80/1465168/nvidias_g80.html
https://www.computerbase.de/forum/threads/nvidia-g80-vorstellungstermin-bekannt.231195/

Am 18. ist Showtime, dann werden sicher auch die ersten Benches durchrutschen :D
 
Zuletzt bearbeitet:
B@dehose schrieb:
Am 18. ist Showtime, dann werden sicher auch die ersten Benches durchrutschen :D

Warte lieber auf die ersten unabhängigen Benches. Die von nVidia direkt gezeigten Benchmarks sind meist etwas "nachbearbeitet".

mFg tAk
 
Ja minimal [okay ziemlich^^] schon ;)

Aber ich dachte eher an Testsampels die sich verirrt haben und zufällig durchgebencht werden :king:
 
tAk schrieb:
Warte lieber auf die ersten unabhängigen Benches. Die von nVidia direkt gezeigten Benchmarks sind meist etwas "nachbearbeitet".

mFg tAk

Oh ja, dass kann ich nur bestätigen!(siehe 80% mehr Leistung bei SLI:rolleyes: )

Benches von privaten Personen sind am zuverlässigsten!
 
Ich schätze, dass aktuelle und neue DX9.x-Games auf der neunen Gen. oft min. um das doppelte schneller sein werden als die aktuellen Grakas! -Auch NV, ATI bzw. einige Entwickler sprechen schon von teilweise um einiges mehr als der doppelten Performance. Da Vista noch länger auf sich warten lässt, werden die Treiberentwickler z.Zt. ihr Hauptaugen auf die möglichst schnelle und schöne Darstellung von DX9.x-Anwendungen richten. OpenGL bleibt z.Zt. noch ein Fall für sich. Aber ich denke, dass NV bei den meisten OGL-Anwendungen die Nase (um einiges?!) vorne haben wird.

Gruss
 
Naja das wär schon ne heftige Sache, besonders oblivion würde dann mal spielbar werden.

Aber die Frage stellt sich dann bei Crysis, bis jetzt weiß niemand wieviel es wirklich an power braucht.
 
Hab noch nen Link, der zwar nit direkt zum Thema ist aber mit Crysis und Vista zu tun hat.

http://uk.theinquirer.net/?article=34915

Vista gaming will be 10 to 15 per cent slower than XP

So even a game like Crysis - the first DirectX 10 title - won’t be that much of a DX 10. We are still far away from DirectX 10

So if you play Battlefield 2 or FEAR or any other popular game you are likely to get lower frame rates with Vista. That is certainly not a good buying argument

:daumen:

Hallo? :stacheln: Was soll das denn? :watt: So wird XP noch ein langes leben vor sich haben...

Denn gerade jetzt wo viele Strom und damit Geld sparen wollen werden Leistungseinbusen die eine noch stärkere Grafikkarte vorraussetzen sicher das Todesurteil für viele Kaufargumente sein....
 
Zurück
Oben