News Asus bringt fünf GeForce GTS 250

Auch wenn ich Angst habe für diesen Kommentar gesteinig zu werden. Ich finde die umbenennung super. Es wird viel einheitlicher und übersichtlicher dadurch. Dann kann man endlich wieder vom Namen der Karten darauf schliessen welche besser ist. Ihr dürft halt nicht wie CB-Geeks sondern wie Media Markt Käufer denken. 9800GTX+ GTX280 häää wasn da jetzt besser? GTS260 GTX280 ahhh höhere Zahl also besser.
 
L233 schrieb:
Die Performance stimmt, alles was feht ist das komplett nutzlose Checklistenfeature DX 10.1.


schöner post übrigens, wenn auch die gerüchte zur GTS240 ncoh etwas anderes sagen. Ich tippe allerdings auch nur um g92 Taktabwandlungen und somit auch auf umlabelung. https://www.computerbase.de/2009-02/geforce-gts-240-ist-keine-umbenannte-9800-gt/

Die Dx10.1 Geschichte ist, wenn man es denn nutzen würde, ist nicht zu verachten und bringt definitiv einen Leistungszuwachs bei gleichen Rechenaufwand.

(Siehe Assassin's Creed 1.0 )
 
Zuletzt bearbeitet:
Tja.... nimmste den alten Schrott, und benennst ihn um - kannst ihn weiter verkaufen.


^^


Ist wie bei Audi. In den USA konnte der Audi80 nicht verkauft werden. 5 Monate später kam der Audi 16000X auf den MArkt. Nur in den USA, und war dem Audi80 baugleich... tada... wurde gekauft!
 
8800GT (G92) = 112 SP, 16 ROPs, 56 TMUs, 58 GB/s Speicherbandbreite
9800GT (G92) = 112 SP, 16 ROPs, 56 TMUs, 58 GB/s Speicherbandbreite
GTS240 (G92) = 112 SP, 16 ROPs, 56 TMUs, 58 GB/s Speicherbandbreite

8800 GTS (G92) = 128 SP, 16 ROPs, 64 TMUs, 64 GB/s Speicherbandbreite
9800 GTX (G92) = 128 SP, 16 ROPs, 64 TMUs, 70 GB/s Speicherbandbreite
GTS 250 (G92) = 128 SP, 16 ROPs, 64 TMUs, 70 GB/s Speicherbandbreite

Mag sein, dass mein Vergleich mit dem G80 hinkt. Ich spreche darüber, weil mir die Kastrierung des G92 auf das kleinere Speicherinterface und die 512MiB Ram nie gefallen hat. Für die üblichen 19" TN Gurken reicht sowas natürlich aus. Meinetwegen auch für 22" mit Abstrichen.
G80 GTX und Ultra waren noch richtige, schwere Highendkarten. Der Rest hat zwar Power, aber wird immer nur aufgebrüht. Ich würde es vergleichen mit dem Q6600, der zwar viel Power hat, aber relativ hitzköpfig und wenig sparsam ist. Trotzdem ist er bis heute eine gute Cpu. Es kommt also auch darauf, wo man seine Prioritäten setzt.

Aber du schreibst es ja selbst. Du listest 6 Karten auf, die sich von den Rohdaten zu 10% unterscheiden und uns als Neuware vorgegaukelt werden. Ich finde das dreist, egal wie man die Zahlen nun genau auslegt.
Meine passive 8800gt war ne tolle Karte, ohne Frage. Warum aus ihr jetzt eine 9000er und dann eine GTS 200er wird, ist allerdings doch eine begründete Frage.
 
Zuletzt bearbeitet:
512mb? ich dachte, 1024mb sollten bei der gts250 standart werden -.-
mit 775mhz ja ganz nett und sicher leistungsmäßig deutlich näher an der 4870 dran, aber mit nur 512mb taugt das nichts. die leistung der gpu wird ja schon jetzt stark durch datendurchsatz und speichergröße limitiert. da hilft es nichts, die gpu weiter aufzubohren, wenn weiterhin der datennachschub auf sich warten lässt...
 
Beides soll offiziell im Programm stehen.
Auch dringend nötig. 512MB bei ner 9800GTX+ sind zu wenig.
 
Wer eine GTS 640 hat, braucht sich keinesfalls eine GTX+ 512MB holen. Der Leistungszuwachs ist minimal. Wenn schon GTX+, dann evt. nur eine 1024MB...
Habe diesen "Fehlkauf" gerade hinter mir. War erschrocken, dass die GTX+ so schlecht gegenüber meiner GTS 640 abschneidet.

Jetzt hab ich ne 260² bestellt. Mal sehen was mich da erwartet. :eek:
*fiep fiep* :evillol:

@Topic
Die Namensänderung finde ich aber gut. Vielleicht bleibt man ja jetzt mal bei diesem Namenskonzept.
 
also ich würde ja lieber einen kühler haben der die wärme aus dem case abführt anstelle es nur drin rum zu wirbeln.... also das standart design bzw der von der matrix edition sollte auch schon funken
 
Zwirbelkatz schrieb:
Mag sein, dass mein Vergleich mit dem G80 hinkt. Ich spreche darüber, weil mir die Kastrierung des G92 auf das kleinere Speicherinterface und die 512MiB Ram nie gefallen hat. Für die üblichen 19" TN Gurken reicht sowas natürlich aus. Meinetwegen auch für 22" mit Abstrichen.
Der G92 kam ursprünglich als Produkt für das mittlere Marktsegment heraus. Ich finde es unabgebracht, sich dann da über "Kastration" zu beschweren, zumal das Ding gleich mal schneller war als die G80-GTS.

G80 GTX und Ultra waren noch richtige, schwere Highendkarten. Der Rest hat zwar Power, aber wird immer nur aufgebrüht. Ich würde es vergleichen mit dem Q6600, der zwar viel Power hat, aber relativ hitzköpfig und wenig sparsam ist. Trotzdem ist er bis heute eine gute Cpu. Es kommt also auch darauf, wo man seine Prioritäten setzt.
Die G80 GTX war wirklich gut, und insbesondere langlebig. Aber das hatte auch seinen Preis. Die G80-GTS hingegen war kurzlebig, underpowered und generell enttäuschend, da sie sehr schnell von der 8800GT verdrängt wurde. Ich hatte eine 8800 GTS 640 :heul:

Ich finde den ganzen G80-Vergleich ehrlichgesagt daneben, mit den G92-Produkten wurde eigentlich eher das mittlere bis gehobene Segment bedient, die 8800GTX war absolutes High End und die 8800 GTS 640 war, naja, eigentlich weniger der Hit.

Aber du schreibst es ja selbst. Du listest 6 Karten auf, die sich von den Rohdaten zu 10% unterscheiden und uns als Neuware vorgegaukelt werden. Ich finde das dreist, egal wie man die Zahlen nun genau auslegt.
Meine passive 8800gt war ne tolle Karte, ohne Frage. Warum aus ihr jetzt eine 9000er und dann eine GTS 200er wird, ist allerdings doch eine begründete Frage.

Ich glaube, Du unterschätzt etwas, wie gut die Performance einer 9800 GTX+ auch heute noch ist und die 1GB-Ausführung bekommst Du fuer ca. 170 Euro (inkl. Versand) und die 512er für €140. Vom Preis/Leistungs-Verhältnis her ist das verdammt gut.

Ob da was vorgekaukelt wird, soll mir gleich sein. Solange der Käufer für sein Geld etwas ordentliches geboten bekommt, ist es mir egal, welcher Name auf der Schachtel steht. Und das ist eindeutig der Fall hier. Der G92 war ein richtig großer Wurf für Nvidia, das sieht man deutlich an der Langlebigkeit der Produkte. Selbst eine 8800GT macht auch heute noch eine gute Figur bei Leuten mit <24" Bildschirmen.
 
sry L233, aber so langsam wirds kindisch.

Es geht hier nicht um Innovation sondern schlechte Evolution in Form von umlabeln. Dabei ist der Chip die Ausgangslage und nicht die daraus resultiernende Leistung.
Natürlich war Nvidia nicht gänzlich dreist und ließ die taktraten unverändert, aber der Chip G92 blieb ua in der selben Fertigungsgröße.
Es wurde zB nicht abgeschaut vom GT200b Chip, sondern immer larmwarm auf den G92B Chip aufgegossen.

Deshlab trifft Leichenschändung in Bezug auf den G92b nunmal zu, denn wäre die GTS250 u 240 garantiert eine abwandlung des GT200b, würde hier niemand von schänden sprechen.


Also Buttter bei die Fische und ruhig mal zugeben, dass der Sachverhalt nunmal ein anderer ist.
 
Zuletzt bearbeitet:
Also ich finde da jez ein Test unnötog und diese ganze Namennsveränderung völlig beklopt:hammer_alt:

Alte Karten nur unter neuen Namen zu verkaufen ist ja das unnötigste was es gibt...das bringt einen doch nur durcheinander...

Und außerdem finde ich die 8000er / 9000er Geforce besser als die GTS Geforce...

Ich hätte auh gerne bei den GT200 Karte die Geforce 10000...Schade Nvidia
 
512MB und 1GB und mehr Unterschiede gabs nicht, oder? Also Hardwareseitig...
Die Karte 50Mhz takten kann ich auch alleine, dafür muss ich keine 10€ mehr ausgeben..
 
L233 schrieb:
8800 GTS (G80) = 96 SP, 20 ROPs, 24 TMUs, 64 GB/s Speicherbandbreite

8800GT (G92) = 112 SP, 16 ROPs, 56 TMUs, 58 GB/s Speicherbandbreite
9800GT (G92) = 112 SP, 16 ROPs, 56 TMUs, 58 GB/s Speicherbandbreite
GTS240 (G92) = 112 SP, 16 ROPs, 56 TMUs, 58 GB/s Speicherbandbreite

8800 GTS (G92) = 128 SP, 16 ROPs, 64 TMUs, 64 GB/s Speicherbandbreite
9800 GTX (G92) = 128 SP, 16 ROPs, 64 TMUs, 70 GB/s Speicherbandbreite
GTS 250 (G92) = 128 SP, 16 ROPs, 64 TMUs, 70 GB/s Speicherbandbreite

Ich wage mal einen Blick in die Zukunft.
Natürlich nur rein hypothetisch gesprochen.

8800GT (G92) = 112 SP, 16 ROPs, 56 TMUs, 58 GB/s Speicherbandbreite
9800GT (G92) = 112 SP, 16 ROPs, 56 TMUs, 58 GB/s Speicherbandbreite
GTS240 (G92) = 112 SP, 16 ROPs, 56 TMUs, 58 GB/s Speicherbandbreite
GTS340 (G92) = 112 SP, 16 ROPs, 56 TMUs, 58 GB/s Speicherbandbreite

8800 GTS (G92) = 128 SP, 16 ROPs, 64 TMUs, 64 GB/s Speicherbandbreite
9800 GTX (G92) = 128 SP, 16 ROPs, 64 TMUs, 70 GB/s Speicherbandbreite
GTS 250 (G92) = 128 SP, 16 ROPs, 64 TMUs, 70 GB/s Speicherbandbreite
GTS 350 (G92) = 128 SP, 16 ROPs, 64 TMUs, 70 GB/s Speicherbandbreite

Aber keine Sorge !
Der G92 wird noch lange Zeit außreichen den schließlich gibts ja PhysX mit wehenden Fahnen und zerbrochenen Glas.
Da verzichtet man gerne auf Grafik und Texturen...
 
Tyr43l schrieb:
sry L233, aber so langsam wird kindisch.

Es geht hier nicht um Innovation sondern schlechte Evolution in Form von umlabeln. Dabei ist der Chip die Ausgangslage und nicht die daraus resultiernende Leistung.
Natürlich war Nvidia nicht gänzlich dreist und ließ die taktraten unverändert, aber der Chip G92 blieb ua in der selben Fertigungsgröße.
Es wurde zB nicht abgeschaut vom GT200b Chip, sondern immer larmwarm auf den G92B Chip aufgegossen.


Also Buttter bei die Fische und ruhig mal zugeben, dass der Sachverhalt nunmal ein anderer ist.

Kindisch ist das Gelaber von "Leichenfledderei" (die GPU ist alles andere als eine "Leiche") und dieses Gejammere übers Umlabeln. In anderen Bereichen heisst das übrigens "Produktpflege" und da regt sich keine Sau drüber auf, da brauchts schon die erbärmliche Nerd-Rage von verkrampften GPU-Geeks, die sich anscheinend über jeden Dreck echauffieren können.

Der Punkt ist, niemand wird durch die Umbenennung in irgend einer Form beschissen. Man bekommt gut Leistung fürs Geld und über was beschwerst Du Dich nochmal genau hier? Zwingt Dich doch niemand, das Produkt zu kaufen, oder? Kannst ja gerne zur Konkurrenz in Form einer 4850 greifen, inklusive indiskutablem Brüllkühler und Treiber-Bremse, damit das Ding beim FurMark nicht abraucht...

Ich verstehe beim besten Willen nicht, was das Genöle hier soll.
 
Pickebuh schrieb:
Aber keine Sorge !
Der G92 wird noch lange Zeit außreichen den schließlich gibts ja PhysX mit wehenden Fahnen und zerbrochenen Glas.
Da verzichtet man gerne auf Grafik und Texturen...

Aha, und bei welchem Spiel müsstest Du bei der GTX 250 auf "Grafik und Texturen" verzichten? Und wehende Fahnen und zerbrochenes Glas ist immer noch mehr als, hm, nix bei ATI's DX 10.1.

Langsam wirds lächerlich.
 
Zuletzt bearbeitet:
merkst du es nicht? Eine GTX260 kostet mit 216Shadern gerademal noch 200 € und verpiekt die gts 250, 9800gtx+ und 88gts512 in jedem bereich.
Wenn man nun eine GTS250 neu zum Verkauf anbietet, dann scheint es so, als würde man eine "NEUE" Graka aufn Markt werfen, was es nicht ist, sondern eine hochgetaktete "ALTE".
Warum denn überhaupt eine GTS250 benennen, wennn es bei der GTX260 mit 216 Shadern auch nicht gelabelt wird? Soll die nun auch gtx 265 heißen ?

Was Du verstehst oder nicht ist eine andere Sache, man redet hier über den breiten Markt und dieser wird die GTS250 kaufen, statt der 9800GTX+ weil sie ja vieeeeel neuer ist, wahrscheinlich schlägt Nvidia auch noch schön eine paar € oben drauf, weil ja neu .....

das wäre ja so, als ob Porsche nen 911 jedes Jahr als "neu" unter 912,913 verkaufen würde. Es ist und bleibt aber immer der 911er.
Erst wenn es einen 912er geben wird, ist dort eine andere Struktur oder anderes Konzept hinterlegt.
 
Zuletzt bearbeitet:
Tyr43l schrieb:
Deshlab trifft Leichenschändung in Bezug auf den G92b nunmal zu, denn wäre die GTS250 u 240 garantiert eine abwandlung des GT200b, würde hier niemand von schänden sprechen.
Wo wäre der Vorteil an einem kleinen GT200b statt einem G92b?
 
naja das problem ist, dass nv bei jedem generationswechsel bei ati auch einen "generationswechesl" machen muss, damit die käufer nicht nur noch die "neuen" karten bei der konkurrenz kaufen und die "alten" karten von nv im regal liegen lassen. nun gibt es aber keinen technischen anlass den g92 schon zu ersetzen. auch leistungsmäßig sind die bisherigen geforces gut aufgestellt. was bleibt also? umlabeln damit der mm-kunde die wahl zwischen einer neuen hd4k und einer "neuen" gts2x0 hat... hoffentlich machen sie mit dem neuen namenschema wenigstens dem chaos aus gf8, gf9 und gt200 ein ende...
 
Hat der G92b einen effektiven Stromsparmechanismus?

Ansonsten reicht dessen Leistung für die allermeisten 3D-Welten voll aus. Mit 1GB sollte man auch vom häßlichen VRAM-Bug etwas länger Ruhe haben. Die eine Variante schein auch mit einem PCIe-Stecker auszukommen, was z.B. mir entgegenkommen würde.
 
ja, halbwegs :) . Und natürlich ist die Leistung des G92b immer noch als gut zu bezeichnen, vorallendingen dann wenn mehr als 512MB Vram zur Verfügung stehen.
https://www.computerbase.de/2007-11/test-nvidia-geforce-8800-gt-sli/28/#abschnitt_leistungsaufnahme

@Unyu: da hast Du den Nagel getroffen. man weiß nicht welche vorteile es geben kann, höchstens aus der ableitung zwischen 8800gts bzw 9800gtx+ und gtx260 könnte man mal vergleichen.
Ich nehme mal an das die Watt/Takt Leistung zb. bei der GTX besser ist.
https://www.computerbase.de/2008-09...60-216-shader/25/#abschnitt_leistungsaufnahme ja, ist sie (9800gtX+ 100% zu GTX260 104% Last; dabei hat die GTX aber deutlich mehr Leistung als 4% zur 9800gtx+)

Lediglich das umlabeln hätte ein ende und darum gings.
 
Zuletzt bearbeitet:
Zurück
Oben