News Neues von ATi und Nvidia

Master
Die grenze des Stromverbrauchs sind 30W? Die 150W (real) der
4870 sind ok, die 145W der GTX 260 sind wurst, aber die 165W der GTX 280 sind zuviel? Oha. :freak:
Oder der Verbrauch der 4870 X2, 275W (real): Das ist ok? Du bist lustig.

Blödsinn?
Werd mal genauer.
Oder machst dr Spass toll geglättete Polygonkanten zu haben, wenn das komplette Bild mangels SSAA flimmert?

cosmicparty
Und jetzt? Ich weiß ja, das du meistens ohne Argumente bashts, aber was willst du mir mit dem Link sagen?

-=Tommy=- schrieb:
Unyu, gegen diese Fraktion kann man nich angehen.
Wohl war.
Da kann man 100mal schreiben, was Sache ist, verstehen wollen die es eh nicht.
Obs jetzt AI, AF, AA, CF, SS, €/B ist, das ist denen sowas von wurst. Stromverbrauch da böse, da gut. Einfach zum davonrennen.
 
Zuletzt bearbeitet:
@ Unyu,
Woher hast du diese Zahlen? Bei den 150W der '70 handelt es sich um die TDP und die liegt bei den GeForces deutlich über 200. "Real" verbrauchen alle drei Karten natürlich weniger.
Und hört bitte auf zu flamen. Du und die anderen da.
 
@Unyu

Also verbraucht die HD4870 140 Watt? Unter Last oder Idle?
Und tut halt alle so als ob der Stromverbrauch die Welt kaputt macht. :freak:
Mein Gott der Idle wert ist schon erschreckend aber vielleicht wird das ja behoben. Und ne 1950XTX frisst kein Strom? Oder ne HD 2900XT nein das sind Stromsparwunder:evillol:

Ein Fehler bei ATI ja und? Nvidia hat auch ne Fehlkonstruktion auf den Markt gebracht undzwar die 9er Reihe. Langsamer und "teurer".

ALso verzeiht es doch ATI:D

Mfg OC_Master
 
Mal ne frage warum heißen die karten jetzt ATI/AMD und nicht ATI Radeon?


2. Man warum springen jetzt alle auf die seite von ATI ? verstehe ich nicht , wenn NV einmal was falsch macht bzw dass der G80 gut war ist gleich vergessen lol

BZW wenn ihr jetzt mal nachdenkt dann sind doch 400€ garnicht so viel es war noch nie Die schnellste graka die erhältlich war unter 400 euro die ksoteten immer 500 oder so
 
Zuletzt bearbeitet:
Unyu schrieb:
Master
Blödsinn?
Werd mal genauer.
Oder machst dr Spass toll geglättete Polygonkanten zu haben, wenn das komplette Bild mangels SSAA flimmert?


sorry für die wortwahl..aber was soll der scheiß??? mangels SSAA...ich lach mich tot...bei ati haste genau so alternativen um ein mögliches flimmern weg zu kriegen...als ob nvidia da etwas eigenes hätte... lachhaft,sorry..


gruß
 
SSAA ist konkurrenzlos. Das ist leider so.
AMD hat Alternativen zu MSAA, das ist Richtig, aber keine Alternative zu SSAA.
 
icedogz schrieb:
Mal ne frage warum heißen die karten jetzt ATI/AMD und nicht ATI Radeon?

2. Man warum springen jetzt alle auf die seite von ATI ? verstehe ich nicht , wenn NV einmal was falsch macht bzw dass der G80 gut war ist gleich vergessen lol

BZW wenn ihr jetzt mal nachdenkt dann sind doch 400€ garnicht so viel es war noch nie Die schnellste graka die erhältlich war unter 400 euro die ksoteten immer 500 oder so

1. Weil ATI von AMD gekauft wurde und die Firma nun ATI Gehört. ATI ist also eine Marke von AMD.

2. Weil Nvidia die letzten Jahre eine Firma war, der alle fiesen, wettbewerbswidrigen und nicht immer legalen Mittel Recht waren ihren Vorsprung auszunutzen. Sie haben die Preise brutaler diktiert als es andere Firmen tun würden, liefern sich unfassbar lächerliche Propagandaschlachten mit Intel und behaupten dabei ziemlich viel Unsinn. Sie benutzen andere kleinere Firmen als Köder und Lockvogel um sich selbst Vorteile zu verschaffen (z.b. Via). Sie verletzen wissentlich Patente anderer Hersteller und werden darum verklagt. (z.b. Rambus)
Das alles könnte man mit etwas Zeit noch sehr viel ausführlicher darlegen und daher kommt es nunmal, dass viele Leute aufatmen, wenn sie sehen, dass Nvidia ihre Technologische Führung verloren hat.
Weiterhin sollte man dann wohl auch nicht "vergessen" wie überlegen ATI in den Tagen vor dem G80 Chip gewesen ist, oder warst du da noch zu klein :freaky:

3. Das ist so ein dummes Argument, es war eher damals viel zuviel ;) Wenn ein Verbraucher sich nicht darüber freut, dass die Preise durch bessere Konkurrenz sinken muss schon was im Kopf nicht ganz richtig sein. Weiterhin ist die Karte nichtmal die schnellste, sie wird von der eigenen 9800GX2 teilweise überholt und von der Radeon 4870 genauso.
 
@Unyu

Welches Tool verwendest Du zum Einstellen deiner Graka?
 
Danke Dir.
 
hab mir eine gtx260 gekauft, also die temps im windows betrieb liegen bei der gpu bei 56/57 grad und die karte ist gleich leise wie meine alte 8800 gts 512 super leistung, im spielebetrieb ist sie etwas lauter aber noch erträglich.
bin auf meinem 19" zöller mit einer 8800gts 512 1150x860 mit 4AA und 16AF gefahren,(bitte nich auslachen) bin dann mit der 260er auf 1280x960 hochgefahren ohne AA mit 16AF, dies ist ja für die meisten user fast schon eine lächerliche einstellung und siehe da grafikabtstürtze in ut 3 und c&c und früher oder später black monitor. cod4 lief ohne probs. Danach habe ich wieder auf die niedriegere auflösung gestellt und es funzt ohne probs. liegt hier irgendwie noch was an einem guten treiber oder habt ihr ähnliche erfahrungen gemacht, oder was soll der shit muss ich zuerst einen von nvidia mit dem brett tod schlagen
 
@MixMasterMike:
2. Weil Nvidia die letzten Jahre eine Firma war, der alle fiesen, wettbewerbswidrigen und nicht immer legalen Mittel Recht waren ihren Vorsprung auszunutzen. Sie haben die Preise brutaler diktiert als es andere Firmen tun würden, liefern sich unfassbar lächerliche Propagandaschlachten mit Intel und behaupten dabei ziemlich viel Unsinn. Sie benutzen andere kleinere Firmen als Köder und Lockvogel um sich selbst Vorteile zu verschaffen (z.b. Via). Sie verletzen wissentlich Patente anderer Hersteller und werden darum verklagt. (z.b. Rambus)
Das alles könnte man mit etwas Zeit noch sehr viel ausführlicher darlegen und daher kommt es nunmal, dass viele Leute aufatmen, wenn sie sehen, dass Nvidia ihre Technologische Führung verloren hat.
Weiterhin sollte man dann wohl auch nicht "vergessen" wie überlegen ATI in den Tagen vor dem G80 Chip gewesen ist, oder warst du da noch zu klein

also so viel blödsinn auf einem haufen... ehrlich, wenn das kein fanboygelabere ist, weis ichs auch nicht mehr. :rolleyes:
die bösen bösen nvidiamitarbeiter -.- die wollen die welt unterwerfen schon klar...
aber es gibt ja zum glück gibts ja die guten jungs von ati, die nicht produzieren um gewinn zu erwirtschaften sondern um die menschen glücklich zu machen.
sag mal gehts noch?
und wie überlegen war ati denn in den tagen vor dem g80? vor erscheinen des g80 hatte die 7950gx2 die performancekrone und die 7900gtx war da noch etwa gleichschnell wie die 1950xtx. wo ist n da überlegenheit? wenn man die gx2 mal weglässt waren ati und nv absolut ausgeglichen.

Weiterhin ist die Karte nichtmal die schnellste, sie wird von der eigenen 9800GX2 teilweise überholt und von der Radeon 4870 genauso.
du sagst also die 4870 ist schneller als die gtx280? wenn die gtx280 nicht die schnellste ist, weil sie ja von der 4870 teilweise überholt wird... dann gibt es also nur dumme hardwaretester und du bist der einzige der ahnung hat?

ehrlich, so ein fanboy-geflame hab ich noch nicht eher erlebt...
 
Zuletzt bearbeitet:
@ lübke:

mixmastermike hat doch recht, in der reinen performance ist die 9800GX2 schneller als ne GTX280

https://www.computerbase.de/artikel...test.834/seite-23#abschnitt_performancerating

erst mit weiteren einstellungen wird die GTX280 schneller, aber wenns rein nach frames geht ist die 9800GX2 schneller als die GTX280.

und in einigen spielen ist die 4870 auch schneller als ne GTX280, was bei dem preisunterschied eh peinlich für nvidia ist.

und vor dem G80 war ati auch überlegen, jedenfalls hatte ati auch einen größeren marktanteil als nvidia.

die x1950pro war das absolute preisleistungswunder und wurde massig gekauft... so wie es jetzt wohl mit der 4850 ist.
und die x1950xtx war wohl ne ecke besser als ne 7950GTX.
während man mit der ati immer noch zocken kann, wurde die nvidia ja wohl meist ausgemustert da heutzutage quasi unbrauchbar.

mich würden mal die verkaufszahlen im moment interessieren, ich vermute mal stark, dass da ati wieder vor nvidia liegt.

sind alles fakten und kein fanboygerede. *g*

und persönlich teile ich auch seine auffassung von dem eher zweifelhaften verhalten der nvidiaführung.
was die oft von sich gegeben haben ist ja krasser als fanboygerede hier.

ich erinner zB an "wir werden ihnen in den arsch treten" in bezug auf intel, oder "auf der welt interessiert sich niemand mehr für ati" im bezug auf amd eben.... usw
dier taktik jetzt wieder mit via, in der via zusammenarbeit angeboten wurde, nur um dann wieder zu kündigen, da man eh nur intel unter druck setzen wollte.... tja.. ist nicht so mein ding alles.
 
schön der reihe nach: die 4870 ist in einzelnen tests teilweise besser, insgesamt liegt sie aber zweistellig zurück. die 9800gx2 ist auch nicht grad n schnäpchen und wenn du den cb-test der gtx280 gelesen hast, weist du auch dass da nur die balken länger sind, was mit blosem auge aber einen ganz anderen eindruck macht. die 9800gx2 ist sicherlich nicht die bessere karte der beiden.

wegen dem überlegen: es ging ja nicht um marktanteil, ati war früher tatsächlich bedeutend größer als nv. das hat aber für den kunden null bedeutung. die kartenwaren absolut gleichwertig (so wies eigentlich auch sein soll). der g80 hat alles leider aus dem gleichgewicht gebracht.

und die 1950xtx war damals ca. 5% besser als die 7900gtx. unter ner ecke verstehe ich was ganz anderes... ;)

mit dem heute noch zocken ist auch nicht wirklich ein argument. die 8500pro von ati kam zwei generationen nach meiner gf2 und war in einer deutlich höheren preisklasse. trotzdem kann mein kumpel aktuelle spiele auf einem 2100xp 1 gb ram aus damals hochwertigen komponenten aufgrund seiner graka nicht mehr zocken, die auf meiner gf2 tadellos laufen.
sowas kann man doch nicht verallgemeinern.
bei der x1k haben sich die spieleengines in die richtige richtung entwickelt. hätte sich openGL durchgesetzt wären die gf7 heute schneller, das war deren stäreke damals...

und preisleistungswunder 1950pro ist auch kein wirkliches argument, denn die hat die 7600gt der gleichen generation abgelöst... das ist wohl eindeutig ein gleichstand.

und das mit via ist auch albern. als wenn es die schuld von nv ist wenn intel die zusammenarbeit mit beiden verbietet. oder willst du mir jetzt sagen, nv hat einfach keine lust, an beiden zu verdienen? nach dem motto: och wir haben ja so viel geld, wir verschenken einfach den markt für via-systeme? wenn die könnten würden die beides tun. aber da machts intel wieder wie bei mediamarkt und co: entweder exklusiv nur für intel oder bleiben wo der pfeffer wächst.
traurig ist es allemale...
 
H3rby schrieb:
Und wenn man jetzt böse zurück schießen würde, könnte man sagen, das die Nvidia Karten zumindest funktionieren, was die ATis mit ihrem Powerplay ja reicht eindrucksvoll beweißen. (Und ja ja, der Treiber oder ein BIOS Update richten es schon irgendwann.. Sowas nennt man unfertiges Produkt!!)

Naja bei den Nvidia GTX280 Karten braucht man sich ja nur im Forum umschauen, gibt genügend welche die 105° Marke erreichen und somit im laufenden Betrieb das heruntertakten anfangen und die Besitzer dann zu Recht über Ruckler klagen.

Die Lautstärke dieser Karten wird dann entsprechend bemängelt denn bei 105° Chiptemperatur läuft auch der Lüfter mit 100% und gleicht einer Turbine.

Sicher es mag sich dabei um Herstellungsprobleme der einzelnen Kartenhersteller handeln aber diese scheinen übergreifend zu bestehen denn erste Händler verweigern den Verkauf der GTX 280 aufgrund dieser Probleme :watt:

Und sowas ist für eine ursprüngliche 650€ Karte mit einem enormen Preisverfall auf inzwischen unter 400€ doch ein wenig ein Armutszeugnis. Die ATI mag zwar Probleme mit ihrem Powerplay haben, dafür funktioniert sie aber, die große Nvidia ist dafür zum Teil vom Hersteller ab nicht zu gebrauchen und das wiegt, zumindest meiner Meinung nach, schwerer. Denn ich bin derjenige welcher den Ärger mit Fehlersuche, Support anrufen, Einschicken auf Garantie etc. hat und ich kaufe mir Hardware dmit sie funktioniert und nicht weil ichSpaß am basteln hab :rolleyes:
 
@Lübke: Welches Game läuft denn auf der GF2 noch, das eine 8500 128MB nicht mehr packt? Das interessiert mich jetzt... hab so ein Teil hier noch liegen. :)
 
Zurück
Oben