News Radeon HD 4830 mit falschen Shadern im Test?

Dio schrieb:
finds eh komisch das Ihr scheinbar nicht in der Lage seit sich die Karte vor einem Test mal mit GPU Z anzusehen....

Da du ja anscheinend den Durchblick hast, solltest du vllt in Zukunft die Karten für CB testen. :rolleyes:
 
Shugo schrieb:
ROFL !
Wasn das fürn SCH***, damit ist quassy der gesammte test inkl. Benchmarks total hinfällig, sprich falsch.
Sowas ist mehr als peinlich von ATI/AMD und sowas sollte bzw. darf es eigentlich nicht geben.

Mein mitleid an den Redakteur, der jetzt quassy alles nochmal machen darf >:-(

Es heisst "quasi"
 
Ach kommt schon, das ist doch eindeutig ein Marketing-Clou! AMD hat nur gepokert, damit Nvidia nicht wieder gleich mit ner 9800GT+(+) reagiert. Es ist immer besser den Gegner im falschen Glauben zu lassen. Und nun zieht AMD das Ass aus dem Ärmel und zeigt in den nächsten Tagen die wahre Perfomance. Der Preis wird auch unter 100,- liegen.
 
moment, kann man die shader dann freischalten? wenn ja, hätte man dann doch mit n bisschen OC ne vollwertige 4850, oder?
 
Somit ist der Test leider hinfällig, aber das schöne daran ist, dass es ja nur besser werden kann (bis evtl. auf den Stromverbrauch ;)). Der Preis der Karte wird wohl gegen 100€ tendieren, da sonst die HD4850 zu nahe ist. Dennoch frage ich mich, wie soetwas passieren kann. Wird AMD etwa wieder leichtsinnig?
 
waRhawK schrieb:
Es heisst "quasi"

lol... es heißt ja auch "Quasimodo":D


Ihr seid mir welche ! Immer wieder amüsant.


Bitte keine Rechtschreib korrekturen mehr ! Wir sind doch alle nur Menschen.

Nun wir werden sehen was so passiert, bis jetzt ist alles Spekulatius, Spekulatius :D
 
bigot schrieb:
Ach kommt schon, das ist doch eindeutig ein Marketing-Clou! AMD hat nur gepokert, damit Nvidia nicht wieder gleich mit ner 9800GT+(+) reagiert. Es ist immer besser den Gegner im falschen Glauben zu lassen. Und nun zieht AMD das Ass aus dem Ärmel und zeigt in den nächsten Tagen die wahre Perfomance. Der Preis wird auch unter 100,- liegen.

Also das wäre ja schon sehr komische. Besonders da Nvidia sowieso in allen Bereiche zur Zeit starke Produkte am Markt ahb. Aber ganz abwegig ist es natürlich nicht!

mfg ordi
 
Ich bezweifel, dass das ne neue Marketing-Masche ist, da man somit ja nur potentielle Käufer verunsichert und wärs keinem aufgefallen hätten sich warscheinlich viele nach den Tests gerichtet und eine 9800GT o.Ä gekauft.
Ich denk eher dass es ein Versehen war, was ATI wohl noch bereuen wird aber fehler sind nunmal menschlich und ich finde es gut dass CB sowas sofort Berichtet.

@Blutschlumpf
So ein Unsinn, das haben die Tester doch erst nach veröffentlichung der Tests mitgekriegt und konnten im vorraus ausser einem ungewöhnlcih schlechtem Benchmark nichts feststellen.
 
@cjay
Eine vernünftige Rechtschreibung und die leserliche Aufteilung eines Textes sind ein Zeichen von Respekt anderen gegenüber. In deinem "bitte keine Rechtschreibkorrekturen mehr"-Post sehe ich ohne nähere Prüfung (spontan) 7 Rechtschreib- bzw. Grammatikfehler (z.B.: was soll das Leerzeichen vor Ausrufe- und Fragezeichen?). Mag sein, dass sowas heutzutage nicht mehr zählt oder "lame" ist, aber spätestens, wenn es irgendwann mal ans Geldverdienen geht ... ;)


@topic
Auf die Erklärung seitens ATI bin ich gespannt. Dass andersrum getrickst wird ist ja bekannt, aber dass eine Karte "absichtlich" schlechter getestet werden soll als sie in Wirklichkeit ist, ist trotz aller Medienwirksamkeit dieses Fehlers eher kontraproduktiv und somit eine dürftige Erklärung.

@bigot
Genau! Nvidia wartet nur auf die Tests von CB & Co. um anschließend die Produktpalette umzuwerfen -.-
 
Zuletzt bearbeitet:
Na du AMD-Hasser musst es ja wissen...

1. Erfährt Nvidia die Leistung der HD4830 tatsächlich erst nach Ablauf der NDA.
2. Wie uns die Vergangeheit lehrt, hat Nvidia manchmal tatsächlich ein Konterprodukt vorbereitet und lässt es ggf. am gleichen Tag noch vorstellen. Allerdings ist es erst viele Wochen später verfügbar. Siehe dazu HD4850 -> 9800GTX+
3. Wurde die HD4830 auch teils besser dargestellt z.B. in der Leistungsaufnahme. Auch nicht ganz unclever.
4. Selbst wenn nichts vorbereitet ist, haben wir in der Vergangenheit oft genug erlebt, dass Nvidia nachbessert und nachfeilt hat und dabei hektisch ein ganzes Dutzend Modelle mit Nameswirrwarr auf den Markt gesch(m)issen hat
 
Zuletzt bearbeitet:
soweit mir bekannt werden doch die SIMD-Blöcke wahrscheinlich per Laser cut deaktiviert , oder ?

vielleicht hat irgend ein Praktikant zuviele getrennt bzw es wurden die falschen verbaut anstatt RV770 fpr HD4830 wurden die für HD4820 verbaut !

mal gespannt was Ati / AMD dazu sagt
 
@Tinpoint: da steht doch nicht n praktikant am fließband mit der lupe in der einen und nem laser in der anderen hand und schneidet bei jeder einezelen gpu die leiterbahnen durch ;)

ich gehe wie gesagt davon aus, dass es sich um normale ausschusschips handelt, die fälschlicherweise zu den für die 4830 verwertbaren sortiert wurden, anstatt sie auszusortieren. vermutlich ist da nur einen charge von betroffen, aus der die ganzen testsamples entnommen wurden.
bei cb sieht man ja, dass die samples unterschiedlich stark derfekt sind.
 
Achja, hier mal ein Benchmark im vergleich (Von Techpowerup)
Einmal das Sample einer AMD 4830 (560 SP)
Ein Sample einer PowerColor 4830 (640 SP)
Eine HD 4850 @ 4830 clocks (800 SP)
perlin1.jpg


Und ein Zitat von Techpowerup
I am also 100% certain that shipping cards with 560 shaders was not intended by AMD at any time.
Why should they make their own product slower?
 
NoD.sunrise schrieb:
Wenn das stimmt wird die "richtige" 4830 ein hammer sobald sich der preis eingependelt hat.

GPU-z hat Wolfgang bestimmt verwendet. Oft erkennt das Tool neue Karten aber nicht oder nicht korrekt, sodass die Angaben mit Vorsicht zu geniessen sind.
 
Das macht die 4830 natürlich noch interessanter, wenn die Leistung sogar noch etwas steigt. Ich persönlich finde, das die 4670 die beste der HD 4000er Karten bisher ist.
Sie hat eine enorm niedrige Leistungsaufnahme, bietet so 50%-75% einer 8800 GTX an Performance und kostet um die 70 EUR. Wie geil ist das denn bitte.
 
bis heute morgen 6 uhr (nda date) gab es keine gpu-z version die die shader richtig auslesen konnte. bin selbst bis nachts um 3 drangehockt die erkennung und den artikel fertig zu kriegen... und dann um 6 wieder raus zum posten
 
@Dio: willst du jetzt den testern die schuld geben, dass die testsampel fehlerhaft sind? das muss doch wohl ati prüfen und nicht die tester. die verlassen sich natürlich darauf, wenn sie ein testsampel bekommen, dass es den übrigen modellen entspricht.
als hätten die tester nicht so schon genug mit den unzähligen benchmarks und dem umrüsten zu tun -.-
 
Zurück
Oben