Warum wird ATI immer so schlecht gemacht?

Das erinnert mich immer an so Gerede von 15 Jährigen Buben, von denen der eine sagt: BMW ist am besten und der andere sagt Audi sind die tollsten...
Wer Pech hat erwischt einen Passat von VW der ständig im Arsch ist, meiner läuft seit 6 Jahren ohne ein einziges Problem (okay, Glühkerze war mal kaputt) - der baugleiche vom Kollegen der weniger Kilometer hat ist alle 8 Wochen in der Werkstatt. Der BMW von meinem Onkel ist absolut in Ordnung, der von meinem Kumpel hat auch ständig was...

Welches ist jetzt das beste Auto? Oder warum ist BMW so scheisse? Oder warum ist VW so gut? Oder umgekehrt?

Das meiste ist Fanboy gelaber die das glauben was die Marketing PPT-Folien sagen, mehr nicht...
;-)
 
Zuletzt bearbeitet:
bitte closen gibt wieder der treffpukt von ati und nvidiafans.heißt nichts gutes schnell wieder in mein onlinebunker bevor die fanboysschlacht wieder losgeht.erkennt man gleich an den vielen zitaten da brauch man erst garnicht lesen.
 
Freak-X schrieb:
Kommt es bei einer Grafikkarte nicht genau auf sowas an? Wer will denn schon eine tolle Grafikqualität; aber ohne jeden Effekt? Dann kannst du auch draußen spazieren gehen - da hast du auch eine echt originalgetreue Umgebung, aber ganz ohne Effekte.

Die Umsetzung von Physx ist in Anbetracht des Alters der Engine, der Firma die dahinter steht und dem was man erreichen will ein Witz. In Mafia ist es wirklich ein Feuerwerk an Partikeln die da rumfliegen, was einfach nicht stimmig wirkt. Zudem frisst es je nach Hardware wegen grauenhafter Treiber soviel Leistung das man es eh vergessen kann.

3D geht bei ATI auch, allerdings hat man sich wie bei Eyefinity darauf verlassen das die entsprechenden Geräte die die Hersteller versprochen haben auch zeitnah in den Handel kommen. Es nun aber weder einen 3er Monitor mit kaum sichtbarem Rand (das gab es vor zig Jahren schonmal) noch gibt es frei Käuflische Shutter oder Polarisationsbrillen für 3D.

Wenn man sich die neue CryEngine anguckt, die 3D mit vielleicht 2% Leistungsverlust ausgeben kann, ist 3D Vision von Nvidia bald genau so tod wie Physx und Cuda (ja Cuda ist tot und das nicht wegen Stream, sondern wegen OpenCL)

Immer wird mit den Sachen geworben, es nutzt in Games aber nichts, denn kaum ein Game nutzt GPU Physx und wenn, kam dabei meist nur ein grauenhaftes Produkt bei raus.
Deshalb mach ich das auch entsprechend nieder...


Es bleibt am Ende nur die Leistung die man vergleicht sowie den Preis und die wirklichwichtigen Attribute wie Abwärme, Verbrauch und Lautstärke.

Das Geflacker oder Probleme bei AA oder AF die da einige ausmachen sieht man nur unter Laborbedingungen oder in einem von 200 Spielen.

Unter diesen nüchternen Gesichtspunkten bleibt kaum eine Nvidiakarte übrig.
 
@ Wattebällchen

Nur dass du bei deinem "Niedermachen" Physx keinen Mehrwert attestierst.
Der ist aber auf jeden Fall da, auch wenn es Kundenunfreundlich sein mag, oder die Entwicklung aufhält endlich die Physik multithreaded zu programmieren.
Genauso wie der Mehrwert von Vision und Cuda, wenn man es denn nun nutzen möchte. (Und hier gibt es wirklich nur Einzelfälle, deswegen finde ich es nervig, wenn ständig jemand diese Features dermaßen hervorhebt und diese als so wichtig darstellt)
Alleerdings muss man diese sehr gering gewichten, wie oben eh schon gesagt.

ATI hat schließlich mit Eyefinity ab der HDk6/7 (wahrscheinlich ohne Adapter und ohne Displayportbildschirm) drauf.
Soll ja auch Nutzer geben, welche dies nutzen möchten.
Die Zielgruppe ist aber wie immer klein.
Genauso bei Nvidia.


@ All

Dass Nvidia mehr für den Spieler bietet sehe ich nicht.
Da muss man dann schon speziell werden.


@ Topic

Und das mit den Treibern ist wirklich nur Panikmache, denn ich hatte nicht mit Nvidia noch mit ATI irgend ein gravierendes Treiberproblem.
Wenn jemand mal Lust hat, kann er ja mal eine Liste aufstellen in welchen Spielen, mit welchem Treiber etc.. es Probleme bei ATI/Nvidia gab und dann einen Vergleich ziehen.
 
Zuletzt bearbeitet:
Zum Fermi Release wurde Nvidia schonungslos schlecht gemacht. Nimmt sich nicht viel..
 
Das war aber genau so verdient wie bei der 5000er Reihe oder der HD2900XT von ATI

@Schaffe89

Da die Spiele mit Physx eigentlich weder optisch noch sonst wie was taugen bringt es nix.

Die Grafik von Mafi ist nicht so der Hit, da hilft viel Physx auch nichts mehr.
 
Wattebällchen schrieb:
Da die Spiele mit Physx eigentlich weder optisch noch sonst wie was taugen bringt es nix.

Das ist deine subjektive Meinung und die ist nichts wert.
Laut Tests hat Batman und Mafia 2 relativ gut abgeschnitten.
Es gibt Leute denen Mafia 2 trotz des verschenkten Potenzials gut gefällt (wie mir zum Bleistift).

Die Grafik von Mafia 2 ist keinesfalls schlecht.
Wenn man die Grafik mit GTA4 vergleicht oder mit anderen Spielen.
 
DAs gibt es nicht nur bei intel vs amd sonder sogar bei festplatten .
Eine Gruppe schört auf WD die andere auf Samsung und andere wieder auf segeate.

Ich hatte weder mit nvidia noch ati bis jetzt probleme.
Derzeit werkelt eine nvidia im rechner und wär die gtx 460 nicht am markt würd ich wohl zu ati greifen. Derzeit werkelt ein Intel in meinem rechner , würde aber ein wechsel anstehen wäre derzeit ein amd system für mich das bessere.
Eyefinity phys-x 3dvision cuda sind für den normaluser oder gamer dann sachen wo jeder für sich selbst enscheiden muss ob er es will/braucht.ich würd nicht sagen ati ist schlecht nur weil sie kein phys-x haben da das angebot einfach zu gering ist derzeit, andere wieder wollen dieses feature halt unbedingt nutzen.

Mir war zb bei dem kauf der GTX 275 wichtiger das diese leise ist und dafür habe ich den etwas höheren wattverbauch im gegensatz zu einer 4890 in kauf genommen.
Anderen wieder ist der Verbauch wichtiger dafür stört sie der lärm nicht so.

Am besten immer selbst test lesen und ein eigenes urteil bilden und entscheiden welche ansprüche du hast und welcher Hersteller diese besser erfüllt.

MFg
V

Ps.Offtopic Schwiegervati hat sich nen mercedes slk gekauft wert 60.000€. 20 km auf dem tacho aber unten rostansätze muhaaa. ok wurde getauscht aber trotzdem bei einem hersteller der einen premium anspruch gerecht werden will bischen lachhaft. Das heisst jetzt aber nicht das mercedes schlechte autos baut sondern er hatte halt pech ;)

Ps.Ps.:Anderen user is ne palit graka abgeraucht und er zieht jetzt über palit her meine karte is nun schon im oc betrieb 1,5 jahre alt und läuft wie ein 12er schnurrl :D

Ps.Ps.Ps.: Naja bei batman sieht der phys-x rauch sehr gut aus aber auf der einstellung hoch die fahnen an den stahlträgern wirken schon sehr aufgesetzt und haben meiner meinung nach keinen sinn im bezug auf die athmosphäre.
 
Zuletzt bearbeitet:
ATI wird immer schlecht gemacht? Liest der TE denn überhaupt, was in diesem Forum so tagtäglich geschrieben wird?
Vielmehr ist es derzeit vermeintlich guter Ton, unqualifiziert auf Nvidia herumzuhacken und ATI/AMD über den grünen Klee zu loben. Mit Treibern hatte ich im Übrigen in vielen Jahren mit Nvidia Karten nicht mal ansatzweise so viele Probleme, wie in einem Jahr HD 5870 oder bei meinem letzten diesbezüglichen Abenteuer mit der 9700/9800 Pro.
Sicher, sowohl ATI/AMD, als auch Nvidia bauen Top Grafikkarten, aber ich persönlich bin in einem Jahr mit 2 HD 5870 nicht glücklich damit geworden. Das hat sich letzte Woche mit dem Wechsel auf eine Karte der grünen gründlich geändert.
Bildqualität? habe ich noch nie einen Hehl draus gemacht, daß ich selbige bei Nvidia als spürbar besser empfinde. Allerdings hat ATI da in dem Jahr sehr deutlich mittels Treiberupdates aufgeholt, mittlerweile ist man da sehr nah beieinander.
Performance? was soll ich sagen, die 5870 war ein Hammer, erst recht das CrossFire. Aber, das Bessere ist des Guten Feind, die GTX 480 zieht in fast allen synthetischen Benchmarks fast mit dem CF gleich und einer einzelnen 5870 weit davon, in den Spielen, die ich bevorzuge, verhält es sich ähnlich, ausgenommen die Spiele, die sehr gut mit CrossFire skalieren. Negativbeispiel: mit einem absoluten Maximum an Qualitätseinstellungen, die überhaupt möglich sind, läuft Metro 2033 auf der GTX hervorragend, auf dem CF war es selbst eine Stufe tiefer fast unspielbar. Allerdings ist das auch unter den derzeit am Markt befindlichen Spielen DAS Nvidia Vorzeigespiel, Dank Physx (so viel zu diesem Thema).
Verbrauch? Die Radeons mußte ich für maximale leistung Overvolten und weit übertakten. In dem Zustand ziehen sie etwa so viel Strom, wie eine serienmäßige GTX 480 und entwickeln deutlich mehr Hitze. Die GTX 480 ist dagegen Undervoltet UND Übertaktet. Damit bleibt sie deutlich kühler.
CUDA ist tot? Schon mal was über aktuelle, professionelle CUDA Projekte erfahren, z.B. wissenschaftliche? Vielleicht mal schlau machen, wie viele Forschungsprojekte mittlerweile mit CUDA und Tesla Karten arbeiten, da diese Rechenfarmen manchen Supercomputer glatt und mühelos an die Wand rechnen.
Unter dem Strich ist vieles, auch hier, hohles Gelaber, von beiden Seiten wohlgemerkt. Und mein Fazit ist recht nüchtern und emotionslos erstellt, mit Fanboy hat das nichts zu tun, ich bin einfach mit den Radeons nicht zufrieden gewesen.
 
Auf der einen Seite meckerst du, dass eine übertaktete Radeon, deren Kernspannung auch noch erhöht wurde, so heiß wird (was hast du denn erwartet, was passiert, wenn du das machst? :rolleyes:), auf der anderen Seite lobst du CUDA, das für den Heimnutzer kaum von Belang ist. Das sind echt typische Fanboy-Argumente. ;)

@Topic
Es hängt immer davon ab, welche der beiden Großen gerade "in" ist. Und diejenigen, die eine Grafikkarte von dem haben, verteidigen sie dann auch glühend. So was sieht man auch sehr gut bei vielen Apple-Usern. Egal wie überteuert und technisch unterentwickelt die Produkte sind, da wird dann philosophiert, wie ach so toll sind sind.
 
e-Laurin schrieb:
Auf der einen Seite meckerst du, dass eine übertaktete Radeon, deren Kernspannung auch noch erhöht wurde, so heiß wird (was hast du denn erwartet, was passiert, wenn du das machst? :rolleyes:)
Vielleicht erst einmal nachdenken und versuchen zu verstehen, was gemeint ist, ehe man jemanden als Fanboy beschimpft? Könnte es manchmal sein, daß der Satz als Hinweis gedacht war, was passiert, wenn man versucht, eine 5870 auf das Leistungsniveau einer GTX 480 zu heben?
Ist außerdem nicht so, daß ich mich beim Erscheinen der fermi nicht kritisch zu den Eckdaten geäußert habe, seinerzeit war die Karte für mich keine Option. Die wurde sie, als sich herauskristallisierte, daß sich praktisch alle Karten im Handel weit Undervolten und so auf das Verbrauchsniveau einer 5870 bringen lassen. Sicher, es ist absolut nicht nachvollziehbar, warum die Karten mit solch hohen Standardspannungen ausgeliefert werden und der User erst Hand anlegen muß. Aber es ist zumindest problemlos möglich.
Ich nutze CUDA zu Hause sehr wohl. In Folding@home wurden die Radeons selbst, wenn auf einer je ein Client lief und man das Ergebnis zusammenrechnete, von der Fermi sehr spektakulär deklassiert.
 
Zuletzt bearbeitet:
Folding@home ist ein ganz ganz schlechtes Programm, um Nvidia- und AMDkarten zu vergleichen; auf Atikarten werden größere Molekülketten berechnet als auf Nvidia. Ohne jetzt ein Leistungsurteil abgeben zu wollen.
 
frankpr schrieb:
Könnte es manchmal sein, daß der Satz als Hinweis gedacht war, was passiert, wenn man versucht, eine 5870 auf das Leistungsniveau einer GTX 480 zu heben?
Du hast in deinem vorherigen Post nicht geschrieben, dass du versucht hast, die Radeon 5870 auf das Niveau einer GTX 480 zubringen. Du hast geschrieben, dass du die 5870 versucht hast, so weit wie möglich zu übertakten.
So weit um die Ecke denken, tut hier keiner im Forum, wenn er Posts anderer Leute liest.

Sicher, es ist absolut nicht nachvollziehbar, warum die Karten mit solch hohen Standardspannungen ausgeliefert werden und der User erst Hand anlegen muß.
Im Normalfall denken sich die Hersteller etwas dabei, wenn sie die Leistungsparameter eines Geräts festlegen. Und natürlich ist es das Ziel, dabei so gut wie möglich am Ende da zu stehen. Allerdings müssen sie sich auch an gewisse Normen halten und Toleranzen schaffen. Ich bin mir ziemlich sicher, dass in den Hardwarelabors die Teile manchmal bei Taktraten und Spannungen laufen, die kein Oberclocker erreichen kann, einfach um auszulooten, bei welchen Einstellungen es am stabilsten läuft.
 
Im Normalfall denken sich die Hersteller etwas dabei, wenn sie die Leistungsparameter eines Geräts festlegen. Und natürlich ist es das Ziel, dabei so gut wie möglich am Ende da zu stehen. Allerdings müssen sie sich auch an gewisse Normen halten und Toleranzen schaffen. Ich bin mir ziemlich sicher, dass in den Hardwarelabors die Teile manchmal bei Taktraten und Spannungen laufen, die kein Oberclocker erreichen kann, einfach um auszulooten, bei welchen Einstellungen es am stabilsten läuft.

Wobei noch anzumerken ist, Dass in der Heutigen Zeit, die Overclocking Szene sehr anspruchsvoll ist und das Nutzen die Hersteller auch aus.

Leistungsreserven, wenn möglich, keine Limitierung der Spannungen und Multiplikatoren etc. und die Beigabe eines Tools oder der Kompatibilität mit der man auch als Laie, sich der Szene vertraut machen kann.

Sogar mit Garantie, wenn man das Beiliegende Tool auch Nutzt.

Dass gab es früher nicht.

Wer, kauft Heutzutage einen am Limit werkelnden Prozessor oder eine Grafikkarte?

Sind Wir, doch mal so Ehrlich!
 
Zurück
Oben