News ATi-Partner bringen Radeon HD 4890 X2

@Wuffi schrieb:
Ja das mag sein. Aber ich denke trotzdem, dass man 1 GB (pro Chip) nur mit HighEnd Games und hohen Auflösungen (24" aufwärts) vollkriegt... Ich hab jedenfalls ne 8800 GTX mit 768 MB Ram, und selbst damit kann ich Crysis auf nem 24" in 1920 mal 1200 und mit MsterConfig relativ flüssig mit 20 FPS spielen. Ich denke also, mit 1 GB sollte es da also wirklich kein Problem sein. Und 30 Zöller haben ja die wenigsten.

Na Mahlzeit :freak:
 
SchlachtVati schrieb:
ich les hier immerwider was von

"energiesparen"
"verbraucht zuviel energie"

ist doch nonsens pisageschädigte !

der ERSTE energieerhaltungssatz sagt: ENERGIE kann nicht verloren gehen, sondern wird nur umgewandelt!

was das natürlich mit bezahlung und umweltbewußtsein zu tun hat, steht auf einem anderen blatt.

Nun das ist wirklich sehr interessant.
Nur frage ich mich warum es im Allgemeinen "Verbraucher" und nicht "Umwandler" heißt ?
Darüber sollte man schon eher mal nachdenken !

Elektrischer Strom ist schließlich nicht einfach so da.
Er wird durch das Spannungsdifferenzial zweier Pole angeregt was wiederum mit viel Aufwand erzeugt werden muß. Sprich: Es werden auf der einen Seite die Ladungsträger angereichert.
Setzt man nun einen "Verbraucher" dazwischen wird durch die ausgleichende Entladung der Elektronen (Ladungsträger) von einem zum anderen Pol diese Spannungsdifferenz abgetragen was man dann als "Verbrauchen" beschreiben kann.

Einen Batterie wird schließlich auch Verbraucht weil eben die Ladungsträger von einer Seite zur anderen gebracht werden und es somit irgendwann keine Spannung mehr gibt.

Also heißt es schließlich doch Verbrauchen und nicht Umwandeln.
 
Wobei dieser Vorgang des Verbrauchens eben nur ein Umwaneln darstellt - auch und gerade bei einer batterie. Nichtsdestotrotz isses nonsens ;)
 
DJ_CULO schrieb:
Zitat von @Wuffi
Ja das mag sein. Aber ich denke trotzdem, dass man 1 GB (pro Chip) nur mit HighEnd Games und hohen Auflösungen (24" aufwärts) vollkriegt... Ich hab jedenfalls ne 8800 GTX mit 768 MB Ram, und selbst damit kann ich Crysis auf nem 24" in 1920 mal 1200 und mit MsterConfig relativ flüssig mit 20 FPS spielen. Ich denke also, mit 1 GB sollte es da also wirklich kein Problem sein. Und 30 Zöller haben ja die wenigsten.
Na Mahlzeit :freak:
Dir dürfte aber auch schon klar sein, dass eine 4890 X2 in einer ganz anderen Liga spielt als eine alte 8800 GTX... Wenns selbst mit der Grafikkarte schon akzeptabel läuft, sollte es mit solchen High-End Karten doch erst recht gut laufen, mehr Speicher hin oder her.

Die Hersteller haben ja schließlich auch Gründe dafür, warum sie noch nicht auf 2 GB pro Chip umgestiegen sind, aber anscheinend wissen es einige hier ja besser.


Thaxll'ssillyia schrieb:
Ja das mag sein. Aber ich denke trotzdem, dass man 1 GB (pro Chip) nur mit HighEnd Games und hohen Auflösungen (24" aufwärts) vollkriegt
Zum 8. Mal: Post 130 lesen...

Und was sind bei dir Highend-Games? FarCry 2 und Crysis gehören jedenfalls nicht dazu, Spieltechnisch eine Katastrophe...

Ja das ist natürlich auch ganz klasse: Den eigenen Beitrag als das Maß aller Dinge sehen :freak:

Dann frag ich mal eins (bezogen auf Beitrag 130): Wie viele haben einen 30 Zöller? Ich glaube nicht, dass es sich für Grafikkartenhersteller lohnt, sich nach solchen Extrem-Enthusiasten zu richten, die moderne Spiele auf 2560 x 1600 mit maximalen Grafikeinstellungen und Kantenglättung spielen.

Und nur mal so: Ich habe genau das gleiche gesagt wie du: Ab 24" aufwärts mit allen Grafikeinstellungen kriegt man 1 GB VRAM voll. Und du sagst, bei 2560 x 1600 und vollen Grafikeinstellungen braucht man mehr VRAM. Ja! 2560 mal 1600 ist 30" und das ist größer als 24".
Somit stehen unsere Aussagen überhaupt nicht im Widerspruch, also tu nicht so, als wärst du mit deinem Post 130 allen anderen überlegen und alle anderen hätten Unrecht...

Und das, was du als modern bezeichnest, das nenne ich eben High-End, denn diese "modernen" Games sind dennoch nur ein ganz geringer Teil aller Spiele und markieren eben das obere Ende, was die Grafik angeht.

Edit:
Thaxll'ssillyia schrieb:
bei einer X2 ist 1GB/Chip schon unterdimensioniert, spätestens nach einer Stunde zocken.
Ich krieg den in allen modernen Games in einer Sekunde voll, wetten wir um meine Graka:lol:?

Wobei man sagen muss, dass die ATIs ein deutlich besseres VRAM-Management und zusätzliche 128 MB haben, was aber durch Microruckler wieder zu Nichte gemacht wird.

Ja du hast aber auch nen 30 Zöller. So gut sind aber die wenigsten hier bedient. Für die Hersteller rentiert es sich numal nicht, sich nach solch einer Minderheit zu richten.
 
Zuletzt bearbeitet:
mal abgesehen davon, dass ab 24" AA und AF sinnlos werden...

btw: ein highend spiel wird nicht durch gameplay oder story zum highend spiel
hier zählt einzig und allein die Technik... und da ist Crysis nunmal am weitesten was das betrifft

edit:
wenn man alles nach dem energieerhaltungsgesetz auslegt, ist so gut wie alles was als verbrauch bezeichnet wird schwachsinn

Benzinverbrauch -> umwandlung in wärme und bewegungsenergie
Nahrungsmittelverbrauch -> umwandlung in Bewegungsenergie etc
Schraubenverbrauch -> einfach nur anderer ort an demsie sich befindet
etc pp

wenn du mit ner graka ein perpetuum mobile erstellen kannst, bei dem die abgegebene leistung die grafikkarte selbst wieder antreiben kann, sag mir bescheid

ich überweise dir sofort 1 Mrd. euro
 
Zuletzt bearbeitet:
hast du schonmal wirklich nen unterschied mit AA ab 24" bemerkt?

total sinnlos

ich benutz bei 19" ja schon nur 4x AA, weil ich ab da schon überhaupt keinen unterschied mehr bemerke
 
@Gu4rdi4n1337 (#205)

Ganz meine Rede ;)

Genau das habe ich auch mit HighEnd gemeint. Ein technisch und grafisch einwandfreies und modernes Spiel. Und dazu zählen Crysis und Far Cry 2 definitiv.

Und nochmal @Thaxll'ssillyia: Wer aufm 30 Zöller mit AA und AF auf höchsten Einstellungen spielt, dem sind ein GB VRAM zu wenig. Aber wer hat schon nen 30 Zöller und wer aktiviert dann noch alle Grafiktweaks? Die Hersteller werden sich jedenfalls nicht danach richten.
 
Zuletzt bearbeitet:
Es ist ABSOLUT SINNLOS ab einer Auflösung von FullHD (1920x1080) AA und AF zu aktivieren

wer wirklich schonmal ne bluray aufm FullHD gesehen hat, der wird feststellen, dass er selbst wenn er 10 cm davor sitzt, keine stufenbildung mehr erkennen kann

ok vllt AF... aber definitiv kein AA
 
Zuletzt bearbeitet:
hast du schonmal wirklich nen unterschied mit AA ab 24" bemerkt?
Ich sitze jeden Tag vor einem 24er wie einem 30er. Und auch da sind es natürlich Welten, ob AA und AF an sind oder nicht :freak:

Man beachte das Gras, die Bäume, die Gebäude und die Bodentexturen ... in Bewegung fällts freilich noch mehr auf:

Es ist ABSOLUT SINNLOS ab einer Auflösung von FullHD (1920x1080) AA und AF zu aktivieren
Das ist Bullshit³
wer wirklich schonmal ne bluray aufm FullHD gesehen hat, der wird feststellen
Du willst ernsthaft n 1080p-Film (!) mit einem Spiel, welches in Realtime gerendert wird, vergleichen?! :rolleyes:
 
@Gu4rdi4n1337:
Absolut sinnlos denke ich nicht, weil es vom jeweiligen Spiel und dem Level abhängig ist. Aber in den meisten Fällen gebe ich dir Recht. Die Performance wird in die Knie gezwungen, und die ohnehin schon fast pixelfreie Grafik verbessert sich kaum noch. Ich spiele daher auch fast immer ohne Kantenglättung und aktiviere es nur da, wo ich die zusätzliche Leistung auch aufbringen kann.

Aber Unterschiede sieht man fast nur bei dünnen Kabeln und Strängen und eben an größeren Kanten, wie man auf den Bildern erkennen kann. Aber das ist mir persöhnlich auch zu wenig...
 
Zuletzt bearbeitet:
Kein Wunder, dass sich keiner über AMDs Flimmer-AF aufregt ... Legt denn heutzutage keiner mehr Wert auf gescheite Bildqualität?! Traurig ist das :(
 
Aber Unterschiede sieht man fast nur bei dünnen Kabeln und Strängen und eben an größeren Kanten, wie man auf den Bildern erkennen kann.

Genau. Und bei Bewegung fängt der ganze Unsinn zu flimmern an. ;)

Antialiasing ist nicht zuletzt deshalb bei 24er und 30er TFTs sinnvoll, weil sich die Pixeldichte (DPI) bzw. auch die Pixelgröße bei steigender Monitorgröße kaum bis gar nicht verändert. Schwer fällt es mir allenfalls, bei einem Notebook (15,4'') mit 1680x1050er Auflösung 2 und 4 Samples zu unterscheiden. Aber selbst da, bei sehr geringer Pixelgröße und hoher Dichte: man erkennt es mit Leichtigkeit, weil flimmernde Kanten einen geradezu anspringen, danach muss man nicht suchen. ;)

Abgesehen davon: zurück zum Thema bitte!
 
Deshalb soll man ja auch einen bestimmten Abstand zum Bildschirm halten: Wenn man zu nah dran ist, sieht man die einzelnen Pixel, und das ist schlecht für die Augen. Wenn man einen genügenden Abstand einhält, siehst man die Verpixelung nicht und man erkennt kaum Unterschiede zwischen AA und Non-AA ^^
 
Spielst Du mit einem Abstand von zwei bis drei Metern vor Deinem Monitor sitzend? Ich nicht. Und bei 50-100cm Abstand erkennt man Flimmern und unsaubere Kanten, aber dicke.

Um Deiner Logik zu folgen, müsste man diesen Abstand auch vor einem 19er halten, der in Sachen DPI und Pixelgröße mit einem 24er und 30er vergleichbar ist.
 
Zuletzt bearbeitet:
Ne ich meine das ja vor allem bezogen auf einen so großen Bildschirm. Da kann mans sich leisten, den Abstand etwas größer zu machen. Und durch die hohe Auflösung wird dann das Bild schärfer.

Bei niedrigen Auflösungen und kleineren Geräten lohnt sich AA und AF natürlich.
 
Wodurch der Vorteil des größeren Bildschirms wieder zunichte gemacht wäre. ;) Was nützt mir der große Screen, wenn ich dementsprechend wieder Distanz aufbauen muss? Das eigene Sichtfeld auf das Spielgeschehen wird wieder eingeschränkt, also: gar nichts.

Und durch die hohe Auflösung wird dann das Bild schärfer.

Nein, die Schärfe ist genauso gut, weil, wie jetzt schon zum dritten Mal gesagt, die Pixel gleich groß sind und die Pixel-Dichte ebenso gleich bleibt. Probiere es doch selbst mal aus und spiele jeweils komplett mit aktiviertem und deaktiviertem AA/AF und beobachte einfach mit ein wenig Bewusstsein die Szenerie.
 
Ja, die Pixel sind zwar gleich groß, aber wenn man etwas weiter davon entfernt sitzt, wirken sie kleiner. Vorrausgesetzt, man sitzt etwas weiter davon weg ;-)

Der Vorteil eines großen Bildschirms wird dadurch aber nur zum Teil zunichte gemacht. Man hat ja immer noch die höhere Auflösung.
 
Und damit beißt sich die Maus in den Schwanz. Man kauft sich einen im Vergleich zum 19''er das Sichtfeld speziell nach links und rechts vergrößernden 24er (bei gleicher Pixeldichte und -Größe), um sich dann, weil im Gegensatz zum 19er AA/AF ja nicht lohnt, weiter weg zu setzen, damit die Pixel kleiner wirken und das Kanten-Geflimmer nicht mehr so ganz auffällt. Man gibt also das größere Blickfeld wieder auf, damit das Bild nicht so pixelig erscheint. Sorry, aber das ergibt überhaupt keinen Sinn.
 
Ich sag ja nicht, dass man so weit weg sitzen muss, dass das Bild so klein wird wie das vom 19 Zölller. Aber es hat auch noch niemandem geschadet, 30 cm mehr Abstand zu halten. Es ist auch einfach besser für die Augen.
 
Zurück
Oben