News AMD stellt 785G-Chipsatz offiziell vor

Es ist aber ein RV620 und somit immernoch ein alter Chip der 3000 Reihe. Dasselbe auch bei Nvidia es war auch immer der G92.

Für mich sind (UVD 2, DX10.1 usw.) absolut kein Grund einen Grafikchip nach einer komplett neuen Generation zu benennen.

Das ist nur Marketing 4000 hört sich schneller an als 3000 ;)

Die Bezeichung 3250 wäre hier angebrachter
 
Zuletzt bearbeitet:
aber eigentlich gar keine Änderungen sind ein Grund?
AMD hat zumindest einen Grafikchip überarbeitet und ihn nen neuen Namen gegeben.
Nvidia nennt ihre Chips ohne Änderungen um.

Und überhaupt, Wen interessiert das?
Das ist ein Low End Chip und jeder der spielt wird sich sofort ne neue Grafikkarte kaufen oder gleich nur ein AMD 770 Chipsatz kaufen (oder 790X oder 790FX).
 
Ok nach deiner Logik müsste dann zb die 8800gtx genauso schnell sein wie die 9800gtx.

Aber schau dir das mal an KLICK

Die 9800gtx rechnet minimal schneller als die 8800gtx und zwar 4-10 % schneller erts bei einer Auflösung von 1600x1200 und bei 8xAA/16XAF kann die 8800 gtx vorbeiziehen was an den größeren Grafikspeicher liegt.

Nvidia hat auch Änderungen vorgenommen (auch wenn sie minimal waren, genauso wie jetzt bei AMD Chipsätzen) an der Leistung trotzdem wurde ohne Ende dagegen gebashed!

EDIT: Ausserdem ist der Chip auf der 8800gtx ein G80 und auf der 9800gtx ein G92 ;). Was eine größere Änderung ist als das was uns AMD hier verkaufen will.

Ich will nicht sagen das Nvidia unbedingt richtig gehandelt hat aber man darf einfach nicht mit zweierlei Maß messen. Wenn man bei Nvidia schon so gebashed hat dann bitte auch hier, sonst kann man euch nicht ernst nehmen.

Ein Sorry an die Admins für das Offtopic aber sowas sollte mal klargestellt werden.
 
Zuletzt bearbeitet:
Die 8800GTS hatte aber einen G92, der durch 4 Generationen geschleppt wird. ;)

Außerdem ist Grafikkarte und IGP ein Unterschied.

Das Wichtigste an der Grafikkarte: Leistung
Das Wichtigste an IGP: Feature-Set und Leistungsaufnahme.
(Neue Features und gesenkte Leistungsaufnahme sind von HD3200 auf HD4200 zu finden)

Das passt hier schon, des weiteren verwendet AMD seit dem 690G die Low-End-Chips
der Vorgänger-Generation und passt sie an die Bedürfnisse an.
Da kann von Umlabeln zum Abverkauf von Lagerbeständen nicht die Rede sein.
 
Zuletzt bearbeitet:
Whoozy schrieb:
Ok nach deiner Logik müsste dann zb die 8800gtx genauso schnell sein wie die 9800gtx.

Dem sollte auch so sein bei 1-2% Abweichung.


Whoozy schrieb:
Aber schau dir das mal an KLICK

Die 9800gtx rechnet minimal schneller als die 8800gtx und zwar 4-10 % schneller erts bei einer Auflösung von 1600x1200 und bei 8xAA/16XAF kann die 8800 gtx vorbeiziehen was an den größeren Grafikspeicher liegt.


Ich sehe aber auch, das die 9800er 100Mhz mehr takt mitbringt und auch der Speicher ist schneller, das sollte die 4-10% unterschied ausmachen.


Whoozy schrieb:
Nvidia hat auch Änderungen vorgenommen (auch wenn sie minimal waren, genauso wie jetzt bei AMD Chipsätzen) an der Leistung trotzdem wurde ohne Ende dagegen gebashed!

EDIT: Ausserdem ist der Chip auf der 8800gtx ein G80 und auf der 9800gtx ein G92 ;). Was eine größere Änderung ist als das was uns AMD hier verkaufen will.


Nvidia hat seit dem G80 bis zum G92b nur Mininmaländerungen gemacht. Und AMD macht es mal genauso kein Grund Wind darum zu machen.
 
Natürlich weil es eine IGP ist kriegt man für die verarsche einen freifahrtsschein.

Ich dussel:rolleyes:

Jo kein Grund Wind zu machen, da geb ich dir Recht. Aber Wind ohne Ende machen wenns Nvidia ist dann ists korrekt ;).

Tut mir leid aber euch kann ich so nicht ernst nehmen
 
Zuletzt bearbeitet:
Whoozy schrieb:
Die Bezeichung 3250 wäre hier angebrachter

Impliziert aber, das die Geschwindigkeit höher ist, als bei der 3200, was NICHT der Fall ist. Wie soll man so zudem das neue Featureset vermarkten?

Zu der Grafikkartenumbennerei: An die 8800/9800GT BIOS-Flash Sache kannste dich aber noch erinnern, oder? ;)

Und ja, weils ne IGP ist, isses nich so schlimm, weil sich kaum jemand (niemand) ein neues Board wegen ner neuen IGP-Variante kaufen wird.
 
@KAOZNAKE : Wie bitte ? Achso ! und eine kopmlette Generation überspringen das Impliziert natürlich keinen Leistungsschub ne ?

Ok lassen wir das an dieser Stelle mal so stehen. Ihr habt eure Meinung ich meine.

Ja das mit der Bios Flash Sache weiss ich ich hab ja nie gesagt das Nvidia richtig gehandelt hat find ich genauso schei**e
 
Zuletzt bearbeitet:
Romsky schrieb:
Gibt es Infos ob bei der Angabe der HDMI Version (1.3) das auch für den Audio-Part zählt? Geht mit dem Chipsatz etwa endlich DolbyTrue HD und DTS HD Master per Bitstream?

Gruß
Romsky

Nein, das bekommt weder NVIDA noch AMD/ATI hin... Warum weiß ich nicht, aber jeder Billig BluRay-Player kann das.

Näheres hier: http://www.anandtech.com/weblog/showpost.aspx?i=629

flavor82 schrieb:
naja das ist ja keine Alternative, wenn man ein Board mit schneller (HD-fähiger) igp sucht...

Völlig richtig

bensen schrieb:
Der 785G wird wohl etwas sparsamer sein. Ist niedriger getaktet.
Aber die werden sich nicht viel tun.

Definitiv nicht. Der 785G verbraucht mehr Strom als sein Vorgänger.

siehe erste Tests: http://www.pcgameshardware.de/aid,6...schau-auf-PCGH-09/2009/Mainboard/Test/?page=2

Gruß
GaBBa
 
Öhm, da wird ein MSI-Brett mit APS mit einem Brett von ASUS verglichen,
welches aktive 10!!! Phasen Spannungswandler hat.
Auf einem Mainboard sind eine Menge Komponenten,
die Strom in Wärme umwandeln. Mann muss schon
ähnliche Boards vergleichen. MSI ist eher bekannt
für niedrige Leistungsaufnahme, ASUS weniger.

Ich würde auf Test mit gleichartiger Boards warten.
Zum Beispiel die UD2-Modelle von Gigabyte.
Ich zweifle jetzt dennoch an der Leistungsaufnahme.
Ich hoffe mal, dass der 785G wirklich weniger frisst.
Wenn nicht, wäre das wirklich ein Kritikpunkt!

Außerdem hat der HD4200 doppelt so viele Video-Einheiten wie der HD3200.
Was würdest du sagen, hätte eine Grafikkarte doppelt so viele Shader?

Gute Nacht! :)
 
Zuletzt bearbeitet:
Ja, lass ihn doch. Whoozy ist ganz klar ein NV Fanboy.

Ich kann die Behauptung einfach nicht akzeptieren das er meint das es sich um eine umgelabelte HD3200 handelt. Ich mein DX 10.1, UVD 2.0, gleichzeitig 2 FullHD Streams decodieren...(jetzt fehlt nur noch 7.1 LPCM oder besser noch TrueHD und DTS HD Master als Bitstream und der Chip ist "perfekt") ich mein gerade im Zielsektor wo diese Lösung zu Einsatz kommen soll (HTPC) sind die Änderungen enorm. Mit einer Spielerkarte zu vergleichen macht nicht wirklich Sinn.

Was das umlabeln anging.... hey aber

8800GT ----> 9800GT (keine Änderung, nur anderes Bios)
9800GTX+ -----> GTS250 (keine Änderung minimale Anpassung von Takt)


Das kann man mit AMD nicht wirklich vergleichen, zumal AMD doch einiges geändert hat!
 
AMD hat keinen anderen Namen benutzt. Wie der interne Code Name benannt wird interessiert niemanden, denn 99% der Menschen wissen nicht einmal was 780G und oder 785G bedeutet.

Da der 785G kleine Erweiterungen erfahren hat, aber nicht schneller als ein 790GX ist, heißt der eben 785G. Der 790GX ist nur höher getaktet als der 780G. Wenn dann die Erweiterungen mit mehr Takt kommen, wird es wohl einen 795GX geben.

Letztendlich ist es weiterhin die einzige IGP Lösung die es ermöglicht eigenen VRAM mit aufs Board zu löten um dann nicht den Arbeitsspeicher nutzen zu müssen. Bei meinem Biostar kann ich der IGP nur den Side Board Memory zuweisen und habe somit immer den vollen Arbeitsspeicher zur Verfügung.
Welcher Hersteller kann noch sowas bieten?
 
Zuletzt bearbeitet:
Whoozy schrieb:
@KAOZNAKE : Wie bitte ? Achso ! und eine kopmlette Generation überspringen das Impliziert natürlich keinen Leistungsschub ne ?

Ich geb dir Recht, dass der Name HD4200 unangebracht ist- Es gab zwar Fortschritte und teils deutliche (Powerplay verbessert, DX10.1, decodiert zwei Ströme, HDMI 1.3 statt 1.2) ...
Naja, HD3250 wär besser gewesen, aber mehr als kritisieren geht leider nicht. Für mich kein Hinderungsgrund zum Kauf, außer ich will die SB750... Es wurde zwar Evolution betrieben und im wichtigen Bereich deutlich, aber ne neue Generation isses nicht. Dafür passt wieder der Name 785G...

GaBBa-Gandalf schrieb:
Definitiv nicht. Der 785G verbraucht mehr Strom als sein Vorgänger.

siehe erste Tests: http://www.pcgameshardware.de/aid,6...schau-auf-PCGH-09/2009/Mainboard/Test/?page=2

Dann schau mal nen anderen Test: ht4u.net hat auch gemessen und kommt zum konträren Ergebnis. Schön sowas. Ich wart auf weitere Tests mit vergleicbaren Boards.

[TLR]Snoopy schrieb:
AMD hat keinen anderen Namen benutzt. Wie der interne Code Name benannt wird interessiert niemanden

Öh, HD3200 und HD4200 sind andere Namen und intern sind diese Bezeichnungen bei weitem nicht.

[TLR]Snoopy schrieb:
Letztendlich ist es weiterhin die einzige IGP Lösung die es ermöglicht eigenen VRAM mit aufs Board zu löten um dann nicht den Arbeitsspeicher nutzen zu müssen

Wenn du die AMD-Chipsätze allgemein meinst, ja. Wenn du von 785G und 790GX spichst, dann falsch. Kann der 780G auch, Asrock macht genau das.

@ Romsky

Falsch, es gab Änderungen bei der 8800GT zur 9800GT: Hybrid-SLI wurde möglich. Is nicht viel, bzw. fast nichts, aber dennoch wurde es gemacht. Falsch ist deine Behauptung, dass bei der GTS 250 nix getan wurde. Stimmt nicht, weil hier weitaus mehr geändert wurde zum "Vorgänger" 9800 GTX+: Eine andere Platine (günstiger/billger, je nachdem wie man das sagen will), mehr VRam mit 100MHz mehr Takt standardmäßig (dass danach 512MB-Versionen gefolgt sind war irgendwo auch klar) und das wichtigste: Nen 2D-Modus!

Es sind Änderungen erfolgt, dazu eine Umbenennung und kein höherer Preis...

Ich sage nicht, dass das Umbenennen richtig ist, aber die Änderungen darf man auch nicht untern Tisch fallen lassen, seien sie noch so gering. Da sind sie jedenfalls.
 
Zuletzt bearbeitet:
Weltenspinner schrieb:
Die 8800GTS hatte aber einen G92, der durch 4 Generationen geschleppt wird. ;)

Nein, hatte sie nicht ;)

8800 GTS @ 320/640MB, 8800GTX @ 768MB und 8800Ultra @ 768MB basieren auf dem G80.

Die 8800GT @ 512MB und die 8800GTS @ 512/1014MB basieren auf dem g92
 
1. Generation 8800GT(S)-512
2. Generation 9800GT(X)
3. Generation GT150/GT140
4. Generation GT250/GT240

Wobei ich hier den wichtigen Shrink auf 55nm (G92b) nicht berücksichtige.

Danke, Kreisverkehr. :)
Genau das meinte ich. Ich hoffe, es kommt jemand auf die Idee
das Gigabyte UD2 einmal mit 780G und einmal mit 785G,
beziehungsweise die Asus M4-Bretter auf deren Leistungsaufnahme
zu testen. Dann weiß man es sicher.
 
Zuletzt bearbeitet:
Whoozy schrieb:
Es ist aber ein RV620 und somit immernoch ein alter Chip der 3000 Reihe. Dasselbe auch bei Nvidia es war auch immer der G92.

Für mich sind (UVD 2, DX10.1 usw.) absolut kein Grund einen Grafikchip nach einer komplett neuen Generation zu benennen.

Das ist nur Marketing 4000 hört sich schneller an als 3000 ;)

Die Bezeichung 3250 wäre hier angebrachter
Wenn man sich schon aufregt, sollte man wissen, dass die Bezeichnung für 3200 schon falsch ist.
RV610 ist ein 2000er Chip

Dazu sollte man wissen, die IGP-Chipsätze mit gleicher Architektur kommen deutlich später, wodurch es schon fast verwirrender ist, wenn der akutelle Chipsatz keinen aktuellen Namen hat.

Die 4200er-Bezeichnung ist berechtigt.
Denn da Performance bei IGPs nicht das wichtigste sind, wurde eben bei anderen Features aufgemöbelt alias DX10.1 und UVD 2.0. Dazu etwas stromsparender im Idle, was dann im Mobilen Markt eine wichtige Komponente wird;-)
Es gibt keinen/kaum einen Grund, ihn nicht 4200 zu nennen.
Schließlich hat der 4200 mit DX10.1s die selbe DX10.1 wie die 4000er-GPU-Serie.

Kein Mensch kauft sich ein neues Mainboard, weil die IGP um 50% schneller ist bzw. 50% Effizienter ist.

Und wenn man genau ist, dann ist der 9400M mehr falsch. Ist ja eigentlich ein 8000er, weil dieser eben auch Video 3.Gen sowie DX10 hat.
Aber dieser wurder halt 9400M genannt, weil die 9000er-GPU-Serie gerade aktuell war.
 
@ über mir : genau mit der nv-igp war das auch ne alte Generation.
Ich finde auch das die neuen Features mehr wert sind als die Performance in FPS zumal ja ATI mit der GX-Reihe auch eine "High-End-IGP"-reihe bietet die sich so auf dauer auch mehr von der Low-Cost-Variante absetzen kann falls das Marketingtechnisch gewünscht ist.

Komisch in dem Zusammenhang ist wenn Labarre 2 hd-decoder bekommt jubelt CB das laut heraus hier muss man selbst in der Folie suchen das wirkt erstmal so als ob die Neuerung keine News wert wäre bzw ein Hinweis.

Grüsse
 
Zurück
Oben