News Galaxy bereitet eine Dual-Core GTS 250 vor

Nichts für ungut terraconz aber der qualtitätsvergleich ist noch mit der alten ati generation.
laut 5870er test siehts momentan für ati besser aus: https://www.computerbase.de/2009-09/test-ati-radeon-hd-5870/5/#abschnitt_bildqualitaet

und was features wie cuda/physix angeht, solange das nicht mehr bringt oder zumindest k(l)einen aufpreis kostet ist das für mich uninteressant. (btw hab ich noch eine 8800gt bis fermi rauskommt und ich mir ne ati hole ;)
 
Zuletzt bearbeitet:
Terraconz hat hier einen der wenigen konstruktiven Beiträge geleistet.

Man möge vielleicht etwas stinkig sein weil ein OEM hier alte Chips zu einem Bundle schnürt doch wenn das P/L stimmt, spricht meines Erachtens nichts dagegen weil man eben tolle Features bekommt.

Ich hatte selber einige Jahre ausschließlch ATI und bin auf eine Palit GTX 260 gewechselt und bereue es zu keiner Zeit. Top Treiber, Top Bildquali und super P/L Verhältnis, die Karte bleibt schön kühl und leise. Was will ich mehr?

Solle es nVidia bzw die OEMs bei meiner nächsten Wahl verbocken, dann gehe ich enttäuscht zu ATI und bin vielleicht wieder ein zufriedener Kunde. :)

Bitte lasst durch euren Fanatismus nicht euren Verstand vernebeln. ;)
 
Ist doch eigentlich wieder nur eine Umbenennung oder? Also meiner Meinung nach ist diese Karte gleichauf mit ner 9800gx2, nur dass hier ein g92 refresh (g94) verwendet wird.
 
@IoTek:
Ich nehme nichts ungut kein Problem, für konstruktive Hinweise bin ich immer offen.
Und ja du hast recht da geht es noch um die last gen von ATI nicht um die neue.
Aber auch die neue ist noch hinter GT200b, leider.
AF ist immer noch besser auf GT200b und die AA ATI nutzten leider alle nichts ohne Hybrid Modi.
Auch wenn ATI einen 64xSGSSAA Modi anbieten würde wäre er einem 32xS von Nvidia unterlegen.
Denn wie schon erwähnt habe ich bei ATI die Wahl ob ich ein Bild mit geglätteten Kanten haben will oder ein Bild das frei von Shader flimmern, beides geht leider noch nicht. Man hat quasi die Wahl zwischen Pest und Cholera. Bei Nvidia habe ich die Hybrid Modi wie z.b. 32xS also 2x2SSAA+4x4MSAA und damit habe ich eine Knackscharfes Bild da es nicht flimmert und habe meine Kanten geglättet. (Zusätzlich kann man dann natürlich noch TAA nutzten bei Bedarf). Solange ATI nicht ebenfalls solche Hybride anbietet oder zumindest im Treiber freischaltbar macht, solange hecheln sie Nvidia was IQ angeht hinter her.

Aber ich will hier gar keine ATI vs Nvidia Diskussion losbrechen, eigentlich ging es mir nur darum das die Leute mal über ihren begrenzten Tellerrand blicken und anerkennen das es sehr wohl Leute gibt für die das eine tolle Karte ist von Galaxy.
Ausserdem ist es auch vollkommen egal was ATI oder Nvidia machen oder nicht machen denn das ist eine Karte von Galaxy und NICHT von Nvidia!
 
terraconz schrieb:
Dann bitte ich dich mir eine Dual GPU Karte zu zeigen die 1990 auf den Consumer Markt kam.
Sry aber du weißt sicher selbst das das Blödsinn ist, Anfang der 90er war die Zeit der Commodore und Amigas und des NES, es war die Zeit von Windows 3 nur um das mal in Perspektive zu setzten. Da war nix mit Dual GPU zu der Zeit!

Du mein Freund hast doch behauptet, vor 20 Jahren hätte es nicht mal Grafikkarten gegeben;
terraconz schrieb:
Ähm vor 20 Jahren (1990) gab es noch nichtmal Grafikkarten geschweige denn Dual GPU! :freak:

Auch wenn die Aussage, Dual GPU gäbe es seit fast 20 Jahren etwas übertrieben ist (je nach definition wird die Voodoo 1 als 'Dual GPU' gezählt) , ist die Antwort auf die Beschreibung "innovativ" sehr passend, denn innovativ ist an dieser Dual Core GTS 250 gar nichts.

terraconz schrieb:
Aber ich will hier gar keine ATI vs Nvidia Diskussion losbrechen, eigentlich ging es mir nur darum das die Leute mal über ihren begrenzten Tellerrand blicken und anerkennen das es sehr wohl Leute gibt für die das eine tolle Karte ist von Galaxy.

Ich blicke über den Tellerrand, und sehe ... eine 9800 GX2.
 
terraconz schrieb:
Eine eindeutige Entscheidung gibt es hingegen bei der maximal möglichen Qualität. In dem Fall heißt der Gewinner Nvidia mitsamt dem High-Quality-Modus, der ein gutes Ergebnis erzeugt. Die Texturen flimmern nur gering und der Spieler sieht keine Bugwellen – nicht optimal, aber gut. ATi muss in diesem Punkt Federn lassen und erst A.I. Off kann mit Quality ohne Optimierungen mithalten. Ein Pendant zu High Quality existiert bei den Kanadiern nicht.

Also AF ist wie du siehst beim GT200b n gutes Stück besser als bei den HD58xx Karten.
nur mal so nebenbei, seit einiger zeit passen die ati-treiber das lod automatisch an und damit wird die af-qualität auf gleich niveau mit nv wenn nicht sogar besser : http://www.pcgameshardware.de/aid,6...1-bringt-mehr-Bildqualitaet/Grafikkarte/Test/
 
Wegen der Diskussion zwecks Dual-GPU Karten die gab es auch schon anfang der 90er zb von Matrox für Multipanel Monitoring von daher!

Nur Quasi zusammen an einem Bild zu Rendern mit mehreren GPUs gab es entweder von Quantum3d mit 3dfx Chips schon mit der V1 denn der ist auch Multifähig was sicher die wenigsten wissen, und dann ansich das bekannte Voodoo2-SLI dann die Fury Maxx!

Bittefein: http://www.thedodgegarage.com/3dfx/index.htm
 
Zuletzt bearbeitet:
Auch wenn der Preis noch aussteht, der Sinn einer Midrange-SLI/CF-Kombination stellt sich doch nicht wirklich. Aufwand, Energiekosten & Multi-GPU-Probleme stehe doch in keinem Verhältnis zur Leistung. Besser dran ist man da doch mit einer leistungsfähigeren und meist auch preiswerteren Single-GPU-Karte - mal ganz abgesehen davon, für das Teil eine passende alternative Kühllösung zu finden/basteln.
 
Jungs rallt ihrs nich?

Nvidia verkauft die Chips
Was die Hersteller damit machen (Galaxy,EVGA etc) ist denen mal sowas von Wurst
Die könnten die auch allesamt inne Tonne pressen, wayne
 
@ Screemer

Das Verschieben den LODs bei Verwendung SSAA hat mit AF nichts zu tun. Das AF von AMD ist auch bei den HD5k dem HQ-AF aktuellerr Geforces noch unterlegen.
 
terraconz schrieb:
Aber auch die neue ist noch hinter GT200b, leider.
AF ist immer noch besser auf GT200b und die AA ATI nutzten leider alle nichts ohne Hybrid Modi.
Auch wenn ATI einen 64xSGSSAA Modi anbieten würde wäre er einem 32xS von Nvidia unterlegen.
Denn wie schon erwähnt habe ich bei ATI die Wahl ob ich ein Bild mit geglätteten Kanten haben will oder ein Bild das frei von Shader flimmern, beides geht leider noch nicht.

Kompletter Unsinn. Bitte informieren. ATI hat wenn SGSSAA eingeschaltet ist, die beste Bildqualität die derzeit zu bekommen ist.
Nvidia hat lediglich den Vorteil des HQ-Filters, welcher unter Default Einstellungen nicht an ist. ATI bietet ohn Banding und ständiger trilinearer statt brilinearer Filterung wie bei Nvidia, also eigentlich die besseren Deafult Bildqualität. SSAA bietet Nvidia nichteinmal offiziell an, was auch noch ein deutlicher Schwachpunkt ist. Ein weiterer Schwachpunkt ist, dass SSAA nicht unter directx10 und directx11 bei ATI funktioniert.
Desweitere ist das Shaderflimmern deutlich zurückgegangen. Siehe CB Test.
Objektiv kann man sagen, dass die Bildqualität ungefähr gleichauf liegt, besonders weil ATI SGSSAA noch nicht unter directx11/10 anbietet.

DAs Unternehmen hat bestimmt einiges geleistet und entwickelt. Man will ins Gespräch kommen.
Mit Nvidia hat das nichts zu tun. Man kann lediglich spekulieren, dasses dann noch etwas länger dauern könnte bis Nvidia die Fermi released. Umsonst bringt man keine "unnötige" Karte. Viel Gewinn wird sie nicht bringen. Aber man tut eben zmindest etwas um nicht Däumchen zu drehen, was besser ist als gar nichts ;-).

y33H@ schrieb:
Das AF von AMD ist auch bei den HD5k dem HQ-AF aktuellerr Geforces noch unterlegen.
DAs AF ist wegen Sampleeinsparungen schärfer und flimmert deswegen auch. Ab 4xSGSSAA wird doch bei richtigem Lod genau das gekillt oder etwa nicht? Genauso wie die anderen Polygone und transparenten Texturen? Oder lieg ich da falsch?
 
Zuletzt bearbeitet:
Schade, schon bei PCGH kein Kommentar zum Sinn der Karte und hier auch nicht. Die kaum schlechtere 9800 GX2 duelliert sich mit der GTX 280, d.h. die GTS 250 GX2 steht maximal etwas über der GTX 285. Je nach Preis ist sie durch Multi-GPU-Probleme also ziemlich sinnfrei.
 
Shurkien schrieb:
Jungs rallt ihrs nich?

Nvidia verkauft die Chips
Was die Hersteller damit machen (Galaxy,EVGA etc) ist denen mal sowas von Wurst
Die könnten die auch allesamt inne Tonne pressen, wayne

Neh, du hast es nicht verstanden. Nvidia verkauft die Chips, schreibst du, und genau das ist nicht der Fall (zumindest nicht für das Graikkartensegment >100 Euro). Warum wohl enstehen ausschliesslich bei Nvida-Exklusiven Boardhersteller solch merkwüridge Eigenkreationen?
Und es ist Nvidia überhaupt nicht egal, was die exklusiven Hersteller so tun. Wahrscheinlich gibts auch noch Support/Vergünstigungen usw. Andernfalls würden die exklusiven Hersteller früher oder später ihre Exklusivität aufgeben oder geraten in finanzielle Schwierigkeiten... und das ist für Nvidia überhaupt nicht förderlich.

Schau dir mal die Page von Galaxy an. In Sachen Hardware verkaufen sie ausschliesslich Grafikkarten, Nvidia-Grakas.
 
Zuletzt bearbeitet:
@schaffe89:
Und in wie weit konterkariert das jetzt meine Aussage?
Oder meinst du das SSAA ein besseres Bild liefert als SSAA+MSAA?

@Multi GPU Diskussion:
Ok bitte zeigt mir eine Quellenangabe von einer Multi GPU Karte die 1989 oder Anfang 1990 auf den Markt kam, dann werde ich gerne eingestehen falsch zu liegen.

@Milamber:
Und was ist jetzt an einer Karte die ca gleich schnell wie eine HD5850 ist jetzt so schlecht?
Siehst du dafür also keinerlei Markt? Denkst du nicht das es profs oder bildungseinrichtungen gibt die daran interesse haben könnte? Und du findest also das eine GTX285, für Leute die nur Nvidia Karten kaufen, bei den heutigen Preisen derselben besser wäre als diese Karte wenn sie zu einem vernüftigen Preis kommt? Oder deute ich deine "Aussage" falsch? Wenn ja dann sry aber "Ich blicke über den Tellerrand, und sehe ... eine 9800 GX2. " ist nicht wirklich aussagekräftig.

Aber ich kann mir vorstellen das es für manche schwer ist an mehr als an gaming und was sie selbst mit einem Produkt anstellen können zu denken.
 
terraconz schrieb:
Auch wenn ATI einen 64xSGSSAA Modi anbieten würde wäre er einem 32xS von Nvidia unterlegen.

Inwiefern unterlegen?

terraconz schrieb:
Denn wie schon erwähnt habe ich bei ATI die Wahl ob ich ein Bild mit geglätteten Kanten haben will oder ein Bild das frei von Shader flimmern, beides geht leider noch nicht

Genau darin besteht doch der Sinn vin SGSSAA. Da wird alles übergebügelt. ;-)

terraconz schrieb:
Solange ATI nicht ebenfalls solche Hybride anbietet
Nvidia bietet es nicht mal offiziell an. SSAA gibts nur per nHancer.

damit habe ich eine Knackscharfes Bild da es nicht flimmert und habe meine Kanten geglättet.
Das schafft ATI auch. Also wo siehst du dann einen Vorteil des einen bzw. des anderen Herstellers? Zudem ist das flimmern weniger geworden und laut CB ist die Bildqualität der Hersteller vergleichbar. Kann man auch anders sehen, klar. Aber dann bitte nicht mit Fakten die falsch sind.
 
Shurkien schrieb:
Jungs rallt ihrs nich?

Nvidia verkauft die Chips
Was die Hersteller damit machen (Galaxy,EVGA etc) ist denen mal sowas von Wurst
Die könnten die auch allesamt inne Tonne pressen, wayne


Das ist NV und auch AMD im Allgemeinen überhaupt nicht egal, was die Boardpartner mit ihren Chips anstellen (Taktung, Kühlung, Boardlayout, -qualität, Preis).
Jeder Mist, den Board-Partner so verzapfen können, fällt in großem Maße hier auf die Chiphersteller zurück.
Und jede übermässige, aber stabile Übertaktung seitens der Boardpartner und anschließender Verkauf in einer höheren Preisklasse, bedeutet Verlust für den Chiphersteller.
AMD und NV werden alle neuen Chips nur unter starken Auflagen den Boardpartnern zukommen lassen, die werden dann mit der Zeit gelockert.
Hier allerdings wird NV die Sache kurz durchgewunken haben, der g92b scheint im Moment der einzig wirklich lieferbare Chip für den oberen Mainstreambereich zu sein.
Die Exklusiv-Boardpartner werden sicherlich langsam unruhig, wegen der Verschiebungen von fermi und der anscheinend schlechten Lieferung von g200b bleibt nurmehr der Evergreen g92b, um per Dual-GPU eine Karte fürs Performancesegment zu liefern oder um überhaupt mal was "neues" zu bringen.
Die Karte wird sich, sollte sie denn tatsächlich kommen, meiner Glaskugel nach in einem durchaus attraktiven Preis/Leistungsverhältnis befinden, aber sie zeigt auch, neben der EVGA Physx+Graphics-Card, das Dilemma, in dem die Exklusiv-Partner von NV momentan stecken.
Nix neues für mid bis high, und kaum altes für high da.


Gruß
Raubwanze
 
Zuletzt bearbeitet:
Schaffe89 schrieb:
Das AF ist wegen Sampleeinsparungen schärfer und flimmert deswegen auch. Ab 4xSGSSAA wird doch bei richtigem Lod genau das gekillt oder etwa nicht? Genauso wie die anderen Polygone und transparenten Texturen? Oder lieg ich da falsch?
Joa, AMD spart wohl Samples. Mit SSAA fällt das aber kaum noch auf. Das negative LOD hat damit aber nicht direkt etwas zu tun, es verschiebt die Stufe ab der die Mipmaps greifen. Mit SSAA ist ein negatives LOD sinnvoll, siehe animated GIF:

blubbpuaw.gif
 
terraconz schrieb:
@Multi GPU Diskussion:
Ok bitte zeigt mir eine Quellenangabe von einer Multi GPU Karte die 1989 oder Anfang 1990 auf den Markt kam, dann werde ich gerne eingestehen falsch zu liegen.

Lies dir meinen Post durch, aber für noch mal in kurz; 1. hast du von Grafikkarten GENERELL gesprochen, die es vor 20 Jahren noch nicht gegeben haben sollte, 2. sind die 20 Jahre Multi GPU als Übertreibung gar nicht so falsch, da diese Dual GTS250 so innovativ ist wie Salami auf Toastbrot mit Senf

terraconz schrieb:
@Milamber:
Und was ist jetzt an einer Karte die ca gleich schnell wie eine HD5850 ist jetzt so schlecht?
Siehst du dafür also keinerlei Markt? Denkst du nicht das es profs oder bildungseinrichtungen gibt die daran interesse haben könnte? Und du findest also das eine GTX285, für Leute die nur Nvidia Karten kaufen, bei den heutigen Preisen derselben besser wäre als diese Karte wenn sie zu einem vernüftigen Preis kommt? Oder deute ich deine "Aussage" falsch? Wenn ja dann sry aber "Ich blicke über den Tellerrand, und sehe ... eine 9800 GX2. " ist nicht wirklich aussagekräftig.

Aber ich kann mir vorstellen das es für manche schwer ist an mehr als an gaming und was sie selbst mit einem Produkt anstellen können zu denken.

Vorab, was den Tellerrand betrifft bist du bei mir an der falschesten der falschen Adressen, denn du kannst mir glauben das ich sämtliche Möglichkeiten in meine Überlegung mit einbeziehe, selbst wenn sie mich selbst gar nicht betreffen.

Zur Dual Core GTS 250:
Ja, ich sehe so gut wie keinen Markt für diese Karte, da sie z.B. der von dir erwähnten HD5850 in allen Dingen unterlegen ist, die man aufführen kann.

Und selbst wenn man nun Cauda Cheese, making bigger PhysX Logo und nEyefinity 3D noch mit in die Waagschale legt, wüsste ich keinen Grund zu dieser hier, statt zu einer GTX 275/280/285 zu greifen, da auch jene in allen belangen besser sind, als dieses SLI Brett.

Es sei denn die Karte gibts für WEIT WEIT unter 200€ - und das mag ich doch bezweifeln (obwohl es bei dem Ausverkauf der Nvidia Restposten sogar möglich sein könnte).


Shurkien schrieb:
terraconz 1
Bully|Ossi 0

Wir sind hier nicht beim Tischtennis.
 
Zuletzt bearbeitet:
terraconz schrieb:
@schaffe89:
Und in wie weit konterkariert das jetzt meine Aussage?
Oder meinst du das SSAA ein besseres Bild liefert als SSAA+MSAA?

@Milamber:
Und was ist jetzt an einer Karte die ca gleich schnell wie eine HD5850 ist jetzt so schlecht?
Siehst du dafür also keinerlei Markt? Denkst du nicht das es profs oder bildungseinrichtungen gibt die daran interesse haben könnte? Und du findest also das eine GTX285, für Leute die nur Nvidia Karten kaufen, bei den heutigen Preisen derselben besser wäre als diese Karte wenn sie zu einem vernüftigen Preis kommt? Oder deute ich deine "Aussage" falsch? Wenn ja dann sry aber "Ich blicke über den Tellerrand, und sehe ... eine 9800 GX2. " ist nicht wirklich aussagekräftig.

Aber ich kann mir vorstellen das es für manche schwer ist an mehr als an gaming und was sie selbst mit einem Produkt anstellen können zu denken.

Du redest von Sachen von denen du eigentlich nicht wirklich Ahnung hast. SSAA von nVidia ist OGSSAA, was eine schlechtere BQ als das SGSSAA von ATi bietet. Und was ist denn SSAA + MSAA fürn Quatsch? Selbst 8xSSAA schaut nur leicht besser aus als 4x, oft sieht man auch gar keinen Unterschied. Über 8x SSAA noch MSAA drüberzuziehen, ist ziemlich sinnlos, abgesehen davon, dass es meistens eh zu viel Leistung frisst.
Im Klartext: die Bildqualität steigt nicht wenn du noch normale Polygonglättung dazuschaltest.
Dass du mit SSAA Texturflimmern hast ist ebenfalls falsch, dass ist ja grad der Sinn von Vollbildglättung. Außerdem erhält man bis zu 64:1 AF, was die Texturqualität noch mal steigert.

Ob die Dual-GTS250 schneller als die 5850 ist sei mal dahingestellt, außerdem gibts da ja auch noch die Mikroruckler.
Abgesehen davon: Es IST doch eine 9800GX2, zugegeben mit gesteigerten Taktraten.

Und was sollen die größeren Taktraten jetzt Professoren und Bildungseinrichtungen bringen? :freak:
 
Zurück
Oben