News AMD bringt erste Grafikkarten in 40 nm

Für die Augen reichen bereits 16 - 18 flüssige Bilder in der Sekunde laut Wikipedia.
In der Praxis reichen ca. 25-30 Bilder wie beim Pal und NTSC Format, wer also behauptet seine Grafikkarte müsste Frames über dieser Grenze darstellen damit er ein flüssiges Empfinden hat, der hat einfach keine Ahnung wovon er da redet.
Lediglich durch die fehlende Konstanz und da nur sehr selten können im höheren Bereich Ruckler festgestellt werden und auch nur dann, wenn die Rate unter die 30 Bilder kommt.
Für meine Zwecke reicht auch noch eine 9600GT , da die meisten brauchbaren Spiele für OS X von Blizzard kommen und Blizzard Spiele sowohl auch schwächerer sowie stärkerer Hardware laufen.
Auch wenn mir eine Mobile HD4850 bzw. Mobile HD4860 wesentlich besser gefallen würde.
Was jedoch aber sicher dann auch wieder auf die Akkulaufzeit gehen dürfte, wobei wer spielt, der hat sein Notebook in der Regel sowieso am (Strom!)Netz.

Beim Video habe ich jedoch auch schon bessere gesehen, fand das von den Workstations eigentlich ganz gut, wenn da jemand ist, in einem AMD Labor und alles erklärt.
 
Zuletzt bearbeitet:
@ über mir

ROFL :D

glaubste das selbst was du da von dir gibst bzw. von wikipedia hast?

16 - 18 frames oder auch 25 +/- ... sorry, das ist WEEEEIIIIIIIt entfernt von flüssig.
ausser vielleicht beim domino spielen :p
 
verglichen mit der mobility g200 serie wird sie einschlagen wie ne Bombe. 40nm dürfte den Verbrauch soweit drücken dass sie in idle sehr sparsam und unter Last auch in recht kleinen Notebooks gut zu kühlen sein dürfte.

Jedenfalls kann man sich gerade technologisch keine bessere Karte als eine 4860 im Notebook vorstellen. Nvidia müsste schon mit einem 216 Shader 40 nm G200 Mobil nachziehen...

Der Launch im Mobilsektor war auch klug gewählt, den Notebook haben mittlerweile höhere Absatzzahlen als Desktop PCs. Jedenfalls sehe ich bis jetzt keine Grafiklösung die der 4860 was streitig machen kann, auf Leistung/Verbrauch betrachtet.


Greedz

Edit:

Ich sehe gerade dass HD4850 = 800 Shader, 4860 = 640 Shader... Lässt sich wohl damit erkären dass man dadurch auf ein und denselben Chip für 4830 und 4860 setzen kann. Dennoch hätte mir ein 40 nm 800 shader hoch getakteter 4860er Chip besser gefallen.
 
Zuletzt bearbeitet:
@impressive
Ich kann dir gerne auch andere Quellen als Wikipedia heraus suchen, das optische Auge ist sehr anfällig für Täuschungen und ist Bereits ab dieser Zahl so manipulierbar das ein flüssiges Bild erzeugt wird.
Viele flüssige Animationen laufen z.B. nur mit 12 oder 15 Frames.
Das PAL Signal kommt mit 25 Frames, das NTSC Signal mit 30 und das High Definition Signal ebenfalls mit 30 Frames.
Ja ich glaube sehr wohl was ich da sage, vielleicht solltest du dich vorher informieren bevor du deine Frage stellst.
Aber wenn man keine Ahnung hat und so, dann stellt man gerne Fragen oder stellt einfach mal was in Frage.
 
bla bla bla blaaa... ein tv-signal mit den fps bei einem pc-game vergleichen ist
natürlich die krönung der weisheit. hat gar keinen sinn darüber zu diskutieren.

einen schönen tag noch :p
 
Stimmt, weil du weder Argumente noch objektive Belege dafür hast das es nicht so ist.
Weisheit definiert sich meines erachtens auch nicht dadurch eine Behauptung aufzustellen ohne sie belegen zu können.
 
CobaltBones schrieb:
Was mich wundert sind die 640 Steam Prozessoren und 128 Bit Speicherinterface. Das sind wohl angaben für die HD 4830 und nicht die HD 4860. Oder irre ich mich. Den die HD 4850 hat 800 Shader und ein 256 Bit interface und 500MHz Kerntakt. So sollte doch die HD 4860 was Leistung angeht über der HD 4850 liegen.
Hier handelt es sich um die Mobile Versionen für Notbooks.

Dort ist auch die 4850M niedriger als auf dem Desktop getaktet.

Die HD 4850 und HD 4870 basieren wie auch deren Mobile Varianten auf dem RV 770 Chip.

Die Mobile Version 4860 basiert auf dem RV 740 Chip und ist in 40nm gefertigt. Wie die Desktop Varianten heißen sollen steht noch nicht 100% fest. Wahrscheinlich: 4750 und 4770.
 
@ AeS

Aber er hat Recht. Man kann die Bilder die man in der Realtität und im Fernsehen sieht, nicht mit denen am PC ausgegebenen vergleichen.

Die am PC sind gestochen scharf, an jeder Stelle, die im Film und der Realität "verwischen" ihre Übergänge (von Bild zu Bild), was dadurch schon eher flüssig wirkt als die gleiche Anzahl an Bildern pro Sekunde beim PC...

e:/ Jetzt rein vom Namen der Grakas: Dann müsste die 4860 nun schneller sein als die Mobil 4850, obwohl die eine 640 und die 4850 800 Shader hat?
Hier steige ich bei der Namensgebung auf den ersten Blick mal kurz aus...

Aber ich hoffe, dass die nun auch endlich mal in großer Zahl in Notebooks verbaut wird, so dass man die auch bei Bedarf kaufen könnte. Das natürlich zu einem gutne Preis ;)

Vllt ließe sich hier mal ein Turion und eine 4860/30/50 oder so realisieren, wenn die Notebookhersteller denn nun auch mal wirklich Turions verbauen würden... Dann hätte man endlich auch hier mal Auswahl.
 
Zuletzt bearbeitet:
Was gibt da nicht zu verstehen, die Mobility 4860 hat zwar nur 640 Shader dafür aber einen weit höheren Takt, das 128-bit Speicherinterface wird durch GDDR5 ausgeglichen.
Damit wird die 4860 schneller als die 4850, was die Namensgebung unterstreicht. Das Video soll dazu dienen, diesen Umstand so einfach wie möglich darzulegen, was es auch tut.
 
Mhm, vom Takt her machts Sinn. Das Interface ist kein Thema, wofür gibts eben die Möglichkeit des GDDR5...
WObei der ja auf der 4870 so verdammt verschwenderisch zu Werke geht, was man daran sieht, dass man durch Untertakten des GDDR5 im Idle viel Strom sparen kann. Teils bis zu 40W...

Wie wollen die dass dann in einem Notebook alltagstauglich machen mti mehr als 5 Minuten Akkulaufzeit? Da hoffe ich auf eine gute Lösung. Desweiteren sollte dann der 40nmProzess bei TSMC die LEckströmereduziert haben etc.

Bin gespannt, was da rauskommt.
 
@AeS
Bitte nicht schon wieder so eine sinnfreie Diskussion über FPS in Threads, wo das überhaupt nichts zu suchen hat. Und bevor du anderen Leuten Unwissenheit vorwirfst, würde ich lieber erstmal das eigene Wissen prüfen.
Ein TV Signal liefert Frames in konstanten Abständen. Also zB bei PAL alle 40 ms (50 Halbbilder pro Sekunde). Das reicht aus, um dem menschlichen Auge einen flüssigen Ablaufen zu suggerieren.
Bei Computer- und Videospielen hingegen sind die Abstände zwischen den einzelnen Frames bei weitem nicht konstant. Je nachdem, was an Logik zwischendurch berechnet werden muss oder welche Flaschenhälse zum tragen kommen. Und deshalb müssen 25 FPS noch lange nicht ausreichen, um eine flüssige Darstellung zu erhalten.
 
@Kreisverkehr
Alle Schaltkreise haben Leckströme, die einen mehr, die anderen weniger! Mit kleiner werdender Fertigungsgröße nehmen die Leckströme zu, natürlich gibt es Verfahren um diesen Effekt zu mildern.
Woher hast du den Unsinn mit GDDR5 und 40Watt im Idle? Eine bios-getunte HD4870 braucht insgesamt keine 40Watt im idle!
 
@ AeS
... das optische Auge ...

Vielleicht können die ja weniger fps ab, als meine normalen Augen ;-)

@ topic

Find ich gut die Karten, leistungstechnisch und namenstechnisch (nich ala GT200M). 256bit Interface ? wird das zu warm oder warum gibts das nich, vielleicht weiß das jemand ? Ansonsten knapp 10000 Punkte im 3D-Mark nich schlecht, allerdings mit nen X4 9950 ?, is ja auch nbißchen hingemogelt.
 
Nein der Chip wird dadurch komplexer, größer, teurer, analog dazu auch die Platine
 
Zuletzt bearbeitet:
@Lord Nemesis: also z.B. Fear 2 oder auch Burnout Paradise (zocke ich zur Zeit, bzw fear2 hab ich schon durch) läuft auf meinem Laptop ganz gut... mit mittleren Einstellungen, ohne AA, auf 1280x800 Pixel (Display halt)

Dir ist bewusst das das menschliche Auge bei 25 frames schon ein flüssiges Bild sieht? wenn du erst bei 60 fps zocken kannst, wie schaust du dann filme oder fernsehen?
 
Lasst bitte dieses Thema , wenn ihr euch nicht damit befasst habt, ab einer absolut konstanten (also gleicher Abstand zum nächsten Bild) Bildfolge von ca. 25-30 fps empfindet das Auge Bewegungen als flüssig, mit anderen Worten höchstens 35ms zwischen zwei Bildfolgen, dies ist aber die unterste Grenze!
In heutigen Spielen ist das leider Gottes so, dass sie erst ab durchschnittlich 50fps nie unter diese magischen 35ms fallen.
 
im grunde hats AlphaGoku gut erklärt. das menschliche auge "aktualisiert" etwa 18 mal das bild in der sekunde. damit es dann auch flüssig aussieht, muss immer exakt im moment dieser "aktualisierung" ein neues bild vorhanden sein. da der monitor aber nicht grad mit dem auge synchronisiert ist, können auch 18 bilder in der sekunde nicht passen. und durch den unregelmäßigen verlauf der bilder muss eine entsprechend hohe abfolge vorhanden sein, um bei jeder aktualisierung durch das auge auch tatsächlich ein neues bild zu haben. je stärker die schwankungen, des so mehr bilder benötigt man.
 
DiamondDog schrieb:
also MSI sei da schon mal ausgeschlossen. Da bekomm ich über die Hälfte der verkauften Notebooks noch innerhalb der ersten 2 Wochen zurück, weil die zu nix taugen. und dann dauert die rekla bei msi noch über einen monat!

Pauschalisierungen sind geil oder ?

komisch das ich mein Book 2 wochen vor ablauf der Garantie eingeschickt habe und das Display trotz warscheinlichem Selbstverschulden gewechselt wurde ohne Anstand und das in 3 Wochen (inklusive kostenfreien abhohl- und bring-service durch ups)

Der MSI Support war bescheiden als es noch bei let-me-repair war. Der jetzige in Holland ist durchaus ok für die Preisklasse !


Lübke schrieb:
bei 14" brauchste doch gar nicht mehr so viel leistung ;)

naja 14" heißt bei mir mindestens 1440*900 also etwa so viele Pixel wie 1280*1024.

Bei aktuellen Spielen sollte es da schon was vom Schlage einer 8800gt, besser 4850 sein, ich will das Teil ja auch 3 Jahre nutzen und GPU-Wechsel ist nicht.

Im moment gibts in der Klasse ja nur solche Mittelklasse Karten wie die 9600gt die aber nur einer 9500gt desktop entspricht.

Damit bekommt man ja nichtmal 1280*800 flüssig bei Titeln wie stalker, jericho oder COH. Von crysis und co sprechen wir besser garnicht.
 
@ AlphaGoku

1. Das mit den Leckströmen weiß ich, nur gabs hier ne Meldung, dass TSMC die Leckströme nicht im Griff hat, dass eine Karte in 40nm sogar mehr STrom braucht wie eine in 55nm...Kurze Meldung diesbezüglich

2. Als ich ne HD4870 ghabt hab, konnte ich durch untertakten des Vram von originalen 900MHz im Idle auf 300MHz im Idle knapp 40W sparen (sagte mein Energiekostenmessgerät: 140 statt 190W)
Auf die Idee, das zu testen kam ich wegen 3.

3. Gabs da mal i-wo nen Artikel bei PCGH oder CB oder so darüber, nur finde ich diesen leider nicht mehr, sonst hätt ich den Artikel schon längst als Quelle angegeben.

e:/ Hier muss ich nun Dank sagen an KAOZNAKE, der diesen Link hier gfunden hat.

Schon erstaunlich, was das Referenzdesign sich erlaubt von wegem verschwenderischem Vram ... Was bringt dann dein "Biostuning"? Is halt ein so tolles Referenzdesign.
 
Zuletzt bearbeitet:
Zurück
Oben