Ich möchte jetzt einfach mal ein paar Postings von comisparty zitieren. Aus früheren News. Nur damit man sich mal ein Bild davon machen kann, wie hier Meinungsmache betrieben wird.
--
https://www.computerbase.de/forum/t...esst-die-konkurrenz-hinter-sich.425084/page-5
"wer da jetzt kauft und nicht auf ne 4870x2 warten kann, die alleine von der rechenleistung schon mal doppelt so schnell (2 teraflop zu 1 teraflop) wie ne 280 ist, der hat echt n reichen erbonkel."
Dazu kommen natürlich Microruckler.
---
https://www.computerbase.de/forum/t...sst-die-konkurrenz-hinter-sich.425084/page-14
"was soll die 260 reißen?
30% langsamer als die 280 mit der gleichen alten technik. und das noch teurer als ne moderne, feinstrukturierte 4870 mit GDDR5.
die wird der neue ladenhüter, wie seinerzeit die 2900xt.
PS hat wohn n grund, warum nvidia die 260 noch versteckt. *g* die ist doch kaum schneller als ne 9800 GTX und langsamer als ne GX2"
Jaja... die ach so langsame GTX 260... :-P
--
https://www.computerbase.de/forum/t...sst-die-konkurrenz-hinter-sich.425084/page-15
"crossfire skaliert bei aoc zB auch schon mit +90%
wer immer noch annimmt, die zukunft liegt in großen single gpus dürfte heute eines besseren belehrt sein.
die GT200 ist der letzte seiner art, ein dinosaurier zum aussterben verurteilt.
in der zukunft wird sich nvidia an ati orientieren.
und wenn ati es geschafft hat 1024vram für beide gpus gleichzeitig zur verfügung zu stellen und microruckler auch teil der vergangenheit sind, ja dann kannste die GTX 280 auch inne tonne werfen.
ach noch ne private frage.. *g*
wer hatte nu recht, mr unyu mit seinem verherrlichen der GT200 oder ich mit meiner skepsis. *g* bin ja so rechthaberisch *gg*"
Ich erlaube mir mal, auf die Frage im letzten Abschnitt zu antworten: Du hattest natürlich unrecht, wie immer. 2x 1024MB, starke Microruckler und nVidia, immerhin Marktführer für dedizierte Grafikkarten, sieht nicht mal einen Bedarf für eine X2.
--
https://www.computerbase.de/forum/t...sst-die-konkurrenz-hinter-sich.425084/page-16
"nochmal, wenn ati mit der 4870x2 beiden gpus 1024 speicher gleichzeitig zur verfügung stellt und microruckler geschichte sind und das teil viel schneller als ne 280 ist... ja was willste dann mit dem ding noch?"
EPIC FAIL ;-P
--
https://www.computerbase.de/forum/t...sst-die-konkurrenz-hinter-sich.425084/page-18
"@ lübke: welche karte gefloppt hat? ich erinnere an den fön von nvidia, die 5800, der größte flop der geschichte."
Und trotzdem leiser als die 4870X2.
--
https://www.computerbase.de/forum/t...sst-die-konkurrenz-hinter-sich.425084/page-31
"aber ati wird wohl bei der 4870x2 den speicher beiden gpus gleichzeitig zur verfügung stellen können und das thema microruckler soll auch der vergangenheit angehören.
wenns so ist,wovon ich mal ausgehe, wirds arg düster für nvidia."
Ja, du gehst von ziemlich vielen Dingen aus, die von Anfang an als unwahrscheinlich feststehen.
--
https://www.computerbase.de/forum/t...sst-die-konkurrenz-hinter-sich.425084/page-35
"nvidia kann einpacken, ich würd alle aktien verkaufen, der marktanteil wird einbrechen"
Ja, das liegt sicher an den behobenen Microrucklern und dem geteilten Speicher... oh, warte! :-P
--
https://www.computerbase.de/forum/threads/finale-taktraten-der-geforce-gtx-280-gtx-260.424427/page-3
"der g200 ist n griff ins klo, ist nun mal so und die 280er kaufen sich keine 2% der zocker. ist eher was für ne freakshow der ungeküssten *ggg*
zu teuer, zu lahm fürs geld und zu hoher stromverbrauch... ach ja und von dx10.1 haben die auch noch nie was gehört und wird bestimmt määäächtig heiß."
->> Das ist das bisher interessanteste Zitat. Denn die Nachteile der GTX 280 werden uns hier von cosmicparty als Vorteil verkauft.
Plötzlich ist es nicht mehr wichtig, ob eine Grafikkarte viel Strom verbraucht. Plötzlich ist die Wärmeentwicklung in Ordnung. Und die Lautstärke muss man in Kauf nehmen. Was aber das Tollste ist: wenn 2% der Leute GTX 280 kaufen, ist das schlecht. Aber die 4870X2 ist ja das absolute High-End und muss nicht oft gekauft werden.
Interessant, wie schnell und extrem man seine Meinung ändern kann, was?
--
https://www.computerbase.de/forum/threads/finale-taktraten-der-geforce-gtx-280-gtx-260.424427/page-7
"nvidia hat dx10.1 verpennt, nvidia hat stromsprtechnologien verpennt."
Jaja, das vielgelobte dx10.1 mit den nahezu unendlich vielen Anwendungen. Übrigens, funktioniert der Stromsparmodus bei ATi mittlerweile? Immerhin hast du diesen schon vor 3 Monaten gelobt.
--
https://www.computerbase.de/forum/threads/finale-taktraten-der-geforce-gtx-280-gtx-260.424427/page-8
"PS: bist du der, der im pcgh forum als extremer nervfaktor angesehen wird? *g* weil son fanboy der nur flamt ohne hintergrundwissen?"
Du meinst, sowas wie du hier bei CB? Ja, so Leute wie du sind echt schlimm.
--
https://www.computerbase.de/forum/threads/radeon-hd-4870-x2-schlaegt-geforce-gtx-280.428147/page-8
"@orbmuk2K: ist dir bekannt, dass ati dran arbeitet (mache glauben mit dem r770 wäre es schon so, andere meinen erst mit dem r800), dass die gpus auf EINEN speicher zugreifen können?"
Natürlich. ATi arbeitet übrigens auch daran, den Welthunger zu besiegen, einen AIDS Impfstoff zu entwickeln und die Venus zu kolonisieren.
--
https://www.computerbase.de/forum/t...llt-sich-gegen-geforce-gtx-260.436445/page-14
"die zeiten wo man 500€ für high end ausgeben mußte sind vorbei dank ati."
Und dabei haben sie jetzt die teuerste High-End-Karte im Angebot. Unglaublich!
--
https://www.computerbase.de/forum/t...llt-sich-gegen-geforce-gtx-260.436445/page-21
"das ist auch das kriterium, welches über erfolg und nichterfolg entscheidet, NUR dieser punkt.
die paar freaks, denen leistung über alles geht, egal zu welchem preis, die kannste an einer hand abzählen.
die sind NICHT markrevelant."
Auch sehr hübsch.
--
https://www.computerbase.de/forum/threads/finale-taktraten-der-geforce-gtx-280-gtx-260.424427/page-8
"PS:wer formuliert eigentlich so "tja verschissen was"? ich denke man kann sehen, wie man dich nun einordnen kann"
Tja, verschissen, was?
--
Einfach nur mal ein kleiner Ausflug in die Welt eines Fanboys. Leider ist der Raid nun zu Ende, ich hatte gehofft, ich finde noch die Aussage von ihm, in welchem er mosert (vor Release der 4870!), das die GTX 280 so warm werden und viel Strom verbrauchen. Wieder etwas, das bei der 4780(X2) plötzlich völlig in Ordnung ist.