News Kommt Nvidias G92 als GeForce 8700 GTS?

so ne 8950 GX² wäre doch was feines zum abrunden der 8er Generation :)

solange die die karten nur mal zwischendurch auffen markt schmeissen und
weiter an High end karten arbeiten, passts doch. wenn die aber
nach einem jahr mit kaum fortschritten im CPU und GPU markt so weitermachen,
fühle ich mich doch langsam ein wenig veräppelt ^^ ...
meine die preise von vielen objekten sind innerhalb von einem jahr gar nicht mal so wirklich gesunken, wie es sein sollte!
 
Das Speicherinterface sollte wohl die gleiche Leistung bringen, wie bei einer 8800GTS:
800MHz bei 320Bit sind 64GB/sec und 1000MHz bei 256Bit sind ebenfalls 64GB/sec.
Evtl. ist durch Optimierungen dann sogar ein klein wenig mehr Leistung drin...
 
Alle, die hier gleich wieder rumheulen, die Karte sei mit 300€ fehlplatziert wegen der 8800GTS: Lest mal genauer, es ist lediglich von einem Preissegment bis 300€ die Rede!

Und mich würds auch freuen, mal wieder eine vernünftige Mittelklasse auf dem Markt zu sehen.

Andererseits sollte man den ersten Satz des Artikels nicht vernachlässigen: Es sind eigentlich auch nur Gerüchte, also Beine still halten und eine offizielle Version mit Benchs abwarten...
 
Ich hätte da mal ne Frage mit dem PCIe 2.0 - ist die Karte kompatibel mit einem interface auf PCIe 1.0 und 2.0 oder ist das interface kompatibel mit karten auf 1.0 und 2.0? Also mit anderen Worten: Kann ich eine PCIe 2.0-Karte in einen PCIe 1.0-Slot stopfen oder eine PCIe 1.0-Karte in ein 2.0-Interface? Oder interessiert das nicht, weil das Teil in beide Richtungen abwärts kompatibel ist?

Aber ansonsten... Wenn ich nen Monitor hätte, der HDMI oder zumindest HDCP könnte, würde ich eventuell zuschlagen (bis die Frage s.o. geklärt ist). So muss das leider noch ne ganze Weile warten...
 
65 nm und Stromsparend klingt doch schonmal gut. Dann wird sie sicherlich auch leise sein.

Ich kann mir gut vorstellen das diese Karte im gesammten besser abschneidet als ne HD2900XT.
Performancemässig wird sie sicherlich hinder der 29er liegen. Aber im gesammten mit Lautstärke
und Stromverbrauch sicherlich eine Alternative.

p.s bin kein nvidia oder ati fan. Im Moment ownt nvidia eben. Habe aber ne Ati karte. nur das ich
hier nicht angefeindet werde:D

edit: Achja, ich verstehe den ganzen Hype auf das Spiel 'Crysis' nicht. Habe gerade FarCry durch... Irgendwie hat mir das Spiel alles andere als zugesagt. Stupides rumgeballere und billige Geschichte. Irgendwie (mal abgesehen von der Grafik) ein sehr schlechtes Spiel:D Naja persönliche Meinung.
 
Zuletzt bearbeitet:
Hatte auf eine Unterstützung von DX 10.1 gehofft, aber das wird die Karte wohl nicht bieten.
Hoffen wir, dass ATI bald was neues Gutes rausbringt, sonst muss ich wirklich noch bei der 8800 zuschlagen :-(
 
@ katanaseiko: Es gab' mal eine Meldung, dass PCIe 2.0 Grafikkarten bei ASUS-Boards nur auf PCIe 1.1 Steckplätzen laufen (oder so ähnlich). Mit dem PCIe 1.0 kann es da irgendwelche Probleme geben (war vor zwei Wochen oder so). Keine Ahnung, ob das ein generelles Problem oder ein ASUS-Problem ist. Nichtsdestotrotz sollte man PCIe 1.x Karten in PCIe 2.0 Steckplätzen laufen lassen können...
 
Für alle die meinen 9x00 wär die Bezeichnung der nächsten Nvidia-Generation: Ich persönlich glaub da eher nich dran. Kleine Gedächtnisauffrischung: ATI Radeon 9500; ATI Radeon 9600; ATI Radeon 9700; ATI Radeon 9800 - uswusf.

Aber wen juckts - abgesehen davon wars schon länger zu 99% sicher, dass der G92 kein neuer High-End-Chip wird. Interessant wird sein, wie er sich gegen die kleine 8800 GTS schlägt.
 
Mit einer GX2 Variante wäre ich happy. DX10 auf 1600x1050 hört sich irgendwie realistisch an. Nur der Preis wird sicher so um die 500-600€ liegen.
Solange Ati nicht bald was neues auf dem Markt wirft, wird Nvidia die Preise weiter unverschämt in die höhe treiben.
300€, für eine Karte zwischen 8800 und 8600??? Sind die verrückt?? Am 12.November kriegst die 2900XT schon für unter 300€....
 
Klar das der G92 kein High End wird.Es ist einfach die logische weiterentwicklung des G80 Chips nur in kleinerer Nanometer Fertigung(also auch stromsparender) und einer Anhebung des Speicherinterfaces von 128Bit auf 256Bit.Die 8700er wird dann die neue Referenz darstellen im Mittelbereich der Grakas.Kann man mit der damaligen Erscheinung der GF 5700 vergleichen.Erst ab dieser Karte war die 5 Generation von Nvidia wirklich erwähnendswert,denn alles darunter war damals einfach grauenhaft.Das verschaffte ATI auch diesen enormen Aufschwung,weil die damals antretende 9x00 Serie plötzlich haushoch überlegen war.Habe damals nicht schlecht gestaunt,wie überlegen die Karten in Sachen wie Antialiasing und Anisotropischer Filterung waren,doch das hat Nvidia seit der 8er Serie souverän ausgemertzt.ATI hat und das sage ich ohne Fan Allueren zur Zeit selbst mit der 2900 nichts BESSERES zu bieten als Nvidia mit der 8800er Serie.Das war vor einiger Zeit eben noch anders.Mann konnte damals eben auch grafisch noch viel mehr sehen und wahrnehmen,welche Karten zur Zeit die Nase vorne hatten.Wenn ich heute die 2900XT und ne GF 8800 GTS beide nebeneinander in Funktion sehe dann muss ich leider feststellen,das auf Nvidia Karten deutlich mehr Spiele funktionieren weil diese eben auf den Chipsatz vieleicht auch besser angepasst werden (Bestes Beispiel Crysis)Es heist bei vielen Spielen oder auf Verpackungen nicht umsonst "It means to be played".Seit der 9x00er Serie habe ich keine Ati Karte mehr in meine Rechner verbaut und ich habe das seitdem auch ehrlich gesagt nicht bereut.Es gibt zur Zeit nur ein einzigstes Spiel,was mir grafisch auf den High End Karten von Ati besser gefällt als auf Nvidia Karten.Stalker ! Die Grafische Darstellung kommt in vielen Bereichen (Himmeldarstellung,Wetterwechsel,dynamischere Bewegungsabläufe) einfach saugut visuell rüber.Selbst auf ner 8800er GTS entsteht bei mir kein so packender atmosphärischer Effekt wie wenn ichs bei nem Kumpel auf seiner 2900xt spiele.Ich denke das erst der G100 die nächste Generation von Nvidia sein wird obwohl dies nur rein sekulativ von mir in den Raum gestellt ist.Die 8er Reihe wird die erste Generation sein die sich aktuell 2 Jahre auf dem Markt halten wird denn durch den frühen Wechsel von DX9 auf DX10 Grakas hat man sich damals diesen Vorteil geschaffen,und welches Spiel unterstützt denn auch nach einem Jahr Vista schon wirklich DX10?Ich denke man kann das noch an einer Hand abzählen.DX10 wird wohl erst ab Ende dieses Jahres richtig zur Geltung kommen und dann werden auch die letzten Skeptiker an einer DX 10 fähigen Graka nicht mehr vorbeikommen,weils einfach besser aussieht.Wenn die 8700er 300€ Kosten soll dann rechtfertigt das weiterhin dazu,die 8800er Serie immer noch für einen Preiß von 250€ für die 320MB Version und 300 bis 350€ für die 640MB Version der 8800 GTS zu verlangen.(Siehe Alternate)

Greetz
 
Das der neue g92 in Sachen Speicherinterface mit der 8800er mithalten kann macht mir keine Sorgen, dafür würde ich gerne wissen wieviele Unified Shader er hat.? Sollten es "nur" 64 sein, dann kann die Leistung immer noch deutlich hinter der 8800er zurückliegen.

@Henrico
Naja ich wechsle einfach hin und her. Hab aber mit keiner von beiden Marken bisher großartige Probleme gehabt. Allerdings bin ich auch nicht der Hardcorezocker...
 
256 bit oda 320 bit ........ hmm lolli schneller als die gts wird das teil zu 100 % sein^^ da in 65 nm gefertigt :)
 
@ 52
hmm erhhhm wo die 7800gtx rauskam sagten auch alle: OMG ATI geht unter, die x1850xt war auch 30% langsamer als ne 7800gtx........... aber dann das refreshteil x1900xtx und ati war wieder vorne :) aber eins muss ich zugeben : So was " schönes und superfunktionierendes" wie die 2900 hd gabs noch nie
 
256 bit oda 320 bit ........ hmm lolli schneller als die gts wird das teil zu 100 % sein^^ da in 65 nm gefertigt :)

War'n Scherz, oder? Wenn nicht, dann solltest Du Dich dringendst nochmal mit dem Thema Strukturbreite und deren Nutzen und Vorteile ausführlich beschäftigen. Tipp: Geschwindigkeit gehört nicht zu den Vorteilen ;) .
 
Straputsky schrieb:
Das der neue g92 in Sachen Speicherinterface mit der 8800er mithalten kann macht mir keine Sorgen, dafür würde ich gerne wissen wieviele Unified Shader er hat.? Sollten es "nur" 64 sein, dann kann die Leistung immer noch deutlich hinter der 8800er zurückliegen.
Man, man, man... Erst informieren, dann posten: http://www.theinquirer.net/default.aspx?article=42199
 
Hoffentlich gibt's die mit 'nem guten Spiebundle. Dann wäre wenigstens das ein Kaufargument.

Noch langsamer als eine 8800gts und teurer Einführungspreis. Nichts für mich.
Jaja, dolle Sache für Office Rechner, aber da gibt's preiswertere und leisere Lösungen.
 
D@rkangel schrieb:
256 bit oda 320 bit ........ hmm lolli schneller als die gts wird das teil zu 100 % sein^^ da in 65 nm gefertigt :)


Ohoh, viel Ahnung scheinst du ja nicht zu haben oder wie kommst du darauf das ein in 65nm hergestellter Chip automatisch schneller ist als ein in 80 oder 90nm :freak:. Es kommt hier auch immer noch auf das gesamt "Paket" an, Takt-Chip/RAM, Shaderleistung u.s.w.! Was hingegen sicher zu sein scheint, ist das der G92 weniger Strom verbrät, dadurch weniger Abwärme produziert und somit evtl. leiser und besser zu kühlen ist (1-Slot Kühlung)
 
Zuletzt bearbeitet:
er hat eben etwas weiter gedacht und gemerkt das ein chip in 65nm wahrscheinlich deutlich höher getaktet werden kann

aber ich frag mich wie du drauf kommst das er stromsparender sein soll ohne die taktraten zu kennen :rolleyes:

du machst genau das gleiche was darkangel gemacht hat, nämlich aus der strukturgrösse schlüsse ziehen
 

Ähnliche Themen

Zurück
Oben