Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Bei Nvidia herrscht derzeit noch eine große Stille, was die Next-Gen-GPU „Fermi“ betrifft. Stattdessen arbeiten die Kalifornier fieberhaft an dessen Entwicklung und bringen manchmal noch Grafikkarten auf Basis der alten Generation heraus, so erst kürzlich die GeForce GT 220.
Hoffentlich wird das Teil nicht auch so eine Enttäuschung wie die GT220. Wenn die GT240 den Preis der 9600GT einnimmt und auch in etwa die gleiche Leistung haben wird, dann könnte das was werden, aber ich denke, die wird anfangs deutlich teurer als der Vorgänger sein...
Na DDR5 ist möglich? Warum nicht gleich rauf damit?
Aber in der Klasse reissts wohl noch nicht allzuviel raus.
Ich bin auf die ersten Benchmarks gespannt, aber ein Kracher erwartet uns hier ja nicht...ATI hat ja gut vorgelegt.
128bit bei GDDR3 ist jetzt nicht so viel, Dazu noch weniger als 100 Shader Einheiten.
Das Ding wird einen schlechten Stand haben und eher mit der HD4670 in der
50 EUR Klasse kämpfen müssen. Spätestens Januar kommt die HD5670 und diese
Karte wird selbst für 30 EUR uninteressant. :/
*glaskugel polliert*
die karten sind bei geizhals bereits gelistet. unter anderem auch eine mit gddr5 ram
preis wird mit 68 € angegeben. http://geizhals.at/eu/a477939.html
ich hoffe auf einen baldigen cb-test der karte.
@Weltenspinner: denke die wird eher die 9600gt beerben. die 4670 ist vermutlich unterhalb der karte angesiedelt.
@HD4890:
was nvidia gerade aufm Markt bringt, ist nur noch peinlich!
was mir noch auffällt, dass der takt der 40nm-gpus doch sehr gering ausfällt. zuerst dachte ich, dass man so in sachen verbrauch vllt die 4670 der konkurrenz unterbieten wolle, aber inzwischen ist ja auch bekannt, dass die 40nm gpus starken qualitätsschwankungen unterworfen sind (sieh artikel zur 5750 von ht4u). das wird mit sicherheit auch nvidia betreffen.
denn theoretisch hätte die g215 das potential die gts250 zu ersätzen (gleiche speicherbandbreite bei verwendung von gddr5, die fehlenden shader kann man ohne weiteres durch takt ausgleichen). allerdings dürften die qualitätsschwankungen wohl bei vielen gpus keine ausreichenden taktraten erlauben.
also beim test der gt240 sollte man oc-potential und verbrauch wohl nur mit vorsicht genießen...
@Lübke
Na, übertreib mal nicht. Um die gleichen Leistungsdaten wie ne GTS250 zu erreichen müssten die Shader mit 2450 MHz und die TMU-Domäne mit 1476 MHz getaktet sein. Ist doch extrem unrealistisch. Das ist fast der doppelte bis dreifache als der jetzige Takt.
Aber die Performance einer 9800GT wäre wohl drin gewesen.
wie kommst du auf solche taktraten?
nimm mal das verhältnis 9600gt zu 9800gt. die shader limitieren vergleichsweise wenig. die leistung steigt nicht linear mit der zahl der shader an. und in 40 nm sollten die 800mhz gpu-takt, die das gros der 55nm g92 schafft, wohl problemlos drin sein, wenn der fertigungsprozess ausgereift wäre. analog dazu die steigerung des shadertaktes und schon sollte eine vergleichbare leistung drin sein.
wer soll bei diesem Namenswirrwarr noch durchblicken?
die Karte lässt sich doch nicht einmal mehr über den Preis leistungstechnisch einordnen, geschweige denn über den Namen. Besonders transparent und kundenfreundlich ist diese Vorgehensweise (Namensgebung und die Wiederverwendung der Chips) seitens nVidia nicht!
Um die gleiche Rechenleistung sowie Texelfüllrate zu erreichen müssten die von mir geschriebenen Taktraten vorliegen.
Die GTS250 taktet eben schon hoch, und bei 30% mehr ALUs und 100% mehr TMUs und ROPs, muss der Takt dann eben dementsprechend höher sein.
Jo, ziemlich exakt. Irgendwie hab ich aber den Verdacht, dass sich das Ding gegen ATIs 4670 blamieren wird. Deren Verbrauch is halt 'ne ziemliche Hausnummer. Und wenn nicht, bringt ATI eine '5670' in 40nm und die Hackordnung passt wieder. Was mich wundert: Wieso heißt die jetzt nochmal 240? 'ne 230 gibt's nicht und da wäre auch nicht wirklich Luft zwischen.
aber inzwischen ist ja auch bekannt, dass die 40nm gpus starken qualitätsschwankungen unterworfen sind (sieh artikel zur 5750 von ht4u). das wird mit sicherheit auch nvidia betreffen.
@ Lübke Rein gar nichts ist bekannt. Es wurde 1 Karte getestet. Insgesamt ist es deswegen äußerst verwunderlich warum du das dann als Fakt darstellst.
Der Takt ist nicht so wichtig. DieKarte hat einfach zu wenig Shader etc.. etc.. verbaut, da kann man mit Takt nicht mehr viel rausholen.
Kleinere Fertigung bedeutet auch nicht unbedingt mehr Taktpotenzial, zumal du eh erwähnt hast, dass es ja offensichtlich sehr sehr schlimme Fertigungsschwankungen gäbe. Solage die Grafikkarte in den Specs läuft und so funktioniert wie sie soll, dann passt das alles. Kein Hersteller wirbt mit Übertaktungspotential.
Die GTS250 taktet schon so hoch... und bei den viel gerigeren Rops, TMus.., 128it SI der GT240 kann das kaum möglich sein. Die Taktraten müssten gen 1000mhz Chiptakt angehoben werden.
Ich würde mal sagen die Leistung dürfte sich knapp über der einer 9800gt bewegen(GDDR5 Version), die GDDR3 Version dürfte bei ner 9600gt oder etwas weiter darunter angesiedelt sein.
Ist eine 9800gt nicht in OEM Kreisen eine GT230?^^
die specs sind im rahmen des in großen mengen reproduzierbaren möglichen festgelegt. wenn es möglich wäre, die gts250 durch eine deutlich billiger herzustellende karte zu ersätzen, wäre nvidia dumm, dies nicht zu tun. und ein shrink bringt physikalisch immer das potential zu höherem takt. kleinere fertigung erlaubt kleinere wellenlängen = höhere frequenz.
und die leistung steigt nicht linear mit der zahl der shader an. die gt240 hat 50% mehr shadereinheiten als die 9600gt. demnach wäre die gt240 bei gleichem takt dann ja 50% schneller...
Deine Kommentare sind auch nicht grade toll. Oder zeugen von Objektivität.