News ATi-Partner bringen Radeon HD 4890 X2

Ich bin ja echt mal gespannt wie die das mit der Kühlung hinbringen.
Da die Boardpartner ja entscheiden dürfen was als erstes draufkommt, wirds wahrscheinlich was ziemlich spezielles und gutes.
 
Unyu schrieb:
Genau das eine spannende Entwicklung, vor gerade mal einem Jahr galten 9800 GX2 und 3870 X2 als schicke Öfen, heute ist das vergessen, der Verbrauch wurde verdoppelt.
Wenn das mal nicht rasant voran geht. Ich meine 200W für eine Singlekarte sind in Zukunft kein Thema mehr, vor einem Jahr wurde über 200W Dualkarten geschimpft, heute werden 110W mehr oder weniger erfolgreich passiv gekühlt. Das ist der Wahnsinn.
Natürlich sind hier die Kühlsystemdesigner gefragt, der Kostenfaktor Kühlsystem nimmt eine immer entscheidendere Rolle ein, übertrifft am Ende sogar den GPU Preis.

Ich muss sagen, ich habe mich völlig getäuscht.
Ich dachte die 4870 X2 liegt bereits am Limit des momentan möglichen, mal unter, mal ein gutes Stück über 300W reallem Vebrauchs, bestückt mit einem sehr Kräftigen Kühlsystem.
Den 2. 8pin Stecker hätte bereits die 4870 X2 gut gebrauchen können, aber ok wird das Versorgungsdefizit wenigstens nicht schlimmer.
Aber was jammer ich, andere haben bereits an einer GTX 295 gezweifelt, heute sehen wir das die im 4x Verbund laufen und und im Einzelbetrieb weit enfernt von Verbrauchsrekorden sind.

Der einzige Hoffnungsschimmer bei der News bleibt die VRAM Größe. 2x2GiB GDDR5 die diesen Takt mitmachen sind nichtumsonst, dennoch bleibt die Frage:
Wie wirkt sich die Karte auf den Markt aus?
Wird sie teuer verkauft und beeinträchtigt in kaum?
Wird sie billig verkauft, drückt die 4870 X2 tief runter, die dadurch wiederum den Markt der ihr untergeordneten Karten kaputt macht?


Fragen über Fragen, zb. wie viel Schub (in sone) schafft eine solche 4890 X2 im CF-X, sofern das überhaupt läuft. ;)
Oder, bietet AMD in Zukunft bei seinem 500€ Geschoss eine Wahlmöglichkeit der Texturfilterqualität?

Tja, so kanns gehen-


feldwebel-Chief schrieb:
BTT: Die karte wird bestimmt richtig abgehn ... aber 375W (denke mal das es locker mehr sind) ist schon krass

Tja, die jetzige X2 ist bei Furmark schon jetzt bei ~370W, ebenso bei GPGPU, wenn die volle Leistung genutzt wird...


René 83 schrieb:
@ Sp1d3r,

eine HD 4890 X2 ist zum zocken auch schon viel zu überdimensioniert, es sei denn du willst CRYSIS mit Supersampling, 32x AA und 2048x1536 spielen! ;)

Für Normalo-Gamer reicht natürlich eine HD 4870 aus!

Öhm, nein? Je mehr Leistung, desto besser. 24xCFAA Edge Detect ist schon beeindruckend. Wobei wir hier wieder beim AF-Misstand sind, aber das ist ne andere Baustelle.

Lübke schrieb:
die mikroruckler sieht man auch erst, wo die frameraten nicht mehr so extrem hoch sind. solange eine 4870 reicht, sieht man auch bei einer 4870x2 sicherlich keine mirkroruckler.

Öhm, falsch. Jedenfalls kann man es nicht pauschal sagen, da ich mir ne X2 gekauft hatte und mir die Mikroruckler immer aufgefallen sind. Unter 25 fps weichen sie zwar eh den Makrorucklern, dennoch: Hohe fps egalisieren dennoch keine Mikroruckler, so denn man diese sehen kann...

Naja, aber dadurch hab ich mir wenigstens viel Geld gespart ;)

@Wuffi schrieb:
Eine 4890 mit 1GHz und 4 GB GDDR5... Das ist ja echt mal schwachsinnig. So gut wie kein Spiel kann bis jetzt 1 GB voll ausnutzen, da sind doch 2 GB pro Chip (also die 4 GB pro Karte) total übertrieben.

Statt der 4 GB mit 256 Bit-Speicherinterface sollten sie lieber bei 2 GB bleiben und stattdessen auf 512 Bit umsteigen. Das wäre eine Verdopplung im Speicherdurchsatz, das gäbe also mächtig FPS.

1. Post von y33H@ gelesen? Die Anbindung ist ausreichend, da der Chiptakt limitiert?

2. Große Texturen "müllen" den Vram zu, und je mehr Leistung, desto mehr Vram ist sinnvoll. Selbst bei der 4870 braucht man schon mindestens 1GB Vram ...

3. Diese in den News angesprochene Karte hat schon 2Gb pro Chip, den der Chip alleine ansprechen kann, die Speicherbandbreite ist durch 256bitxGDDR5-Takt ausreichend.
Wenn du jetzt den Chip umdesignen willst und den Vram halbieren willst, bremst du die Karte extrem aus, weil der Vram überläuft.


H€553 schrieb:
GreenIt != regenerative Energien. GreenIt ist ein Modebegriff für stromsparendere Hardware. Das hat rein gar nicht mit regenerativen Energien zu tun.

[...]

Indirekt doch: Je weniger Energie verballert wird durch sparsame Karten, desto länger hat man Zeit, regenerative Energiequellen schonend zu erschließen und kapazitative Speichermedien zu entwickeln.
Aber dafür wird Green IT nur beim Verbrauch berücksichtig, der Abbau der Resourcen sowie die Entsorgung sind umwelttechnische Großverbrechen... Egal, wir haben ja etwas zum werben...

Eon-Deon schrieb:
Tja, macnhe sind ziemlich unempfindlich. Ich konnte CF und SLI auf einigen Systemen bewundern und grade in Far Cry 2, Crysis, Stalker fand ich einige Systeme teilweise unspielbar. Zucken und Rucken, wenn auch nur fein, gehen mir persönlich gehörig auf den Keks. Daher würde bei derzeitiger Technik niemals ein CF oder SLI System für mich in Frage kommen.

Ich frage mich bis heute warum man nicht die SLI Technik von 3Dfx übernommen hatte. Diese war eigentlich Perfekt.

1. Joa, die Ruckler sind auch für mich und meine Freundin sichtbar (sie zockt auf dem 780G)
2. 3dfx verwendete eine andere Technik, wo noch jede Zeile abwechselnd berechnet wurde (wenn ich mich nich irre), was heute aufgrund der Bildinformationen/inhalte nicht mehr möglich ist.

Ich freu mich schon darauf, wenn 2 Chips in einem Gehäuse sitzen und quasi wie ein großer angesprochen werden können.

Zu der Karte nochmals:

Heißer als die jetzige X2, extremer Verbrauch und 2Gb Vram. Ich bin da wirklich mal auf die technische Umsetzung der Kühlung gespannt, und im wie viel die Spezifikationen noch überschritten werden...

PCIe spezifiziert zwar "nur" 300W, aber die 4870X2 liegt ja schon bei 380W unter extremen Bedingungen, mal schauen, ob die 4890 X2, so denn es diese auch zu kaufen/testen gibt die 450W tangieren wird.
 
Erstens hab ich nicht gesagt, dass es ein Game gibt, wo größergleich 1792 MB VRAM gebraucht werden (obwohl es da ein paar gibt) und zweitens spielt die Auflösung eine Untergeordnete Rolle beim VRAM-Verbrauch. Die Texturgröße ist der primäre Faktor!

Alle modernen Games verbraten bei höchsten Grafikeinstellungen ingame (+ 2560x1600) selbst mit 1xAA und 0xAF mehr als 896 bzw. 1024 MB VRAM!

Kommt AA/AF dazu, kommen wir den 1500 MB sehr nahe, und dass in allen modernen Games! Ausreißer sind, wie du schon gesagt hast, GTA4 und Crysis (je bis 2 GB, samt Mods).
Heftigster Fall ist und bleibt (zumindest für eine Weile) Flight Simulator X:

Bei einem Freund, der einen i7 + 3x GTX 285 2GB + 24 GB RAM + 2x 24" drin hat, haben wir es geschafft, mit diversen Addons und Mods für den FSX laut Rivatuner 3,2 GB VRAM und rund 15 GB RAM nach 5 Stunden (wurden mit der Zeit immer mehr) zu belegen, jetzt alles klar?

Die 896 MB der GTX 295 sind Schwachsinn, die doppelte Menge sind von Nöten. Vielleicht schafft das Single-PCB Abhilfe. Dort sind wieder 28 (2x 14) Speicherchips verbaut, nur ist die Frage, ob es diesmal 1Gbit-chips sind statt 512er wie bei der jetzigen Dual-PCB-Ausführung...

Gruß Thax

Ihr glaubt gahrnicht wie ich mir in's Bein geschossen habe mit meinen 295GTX. Zu wenig VRAM, dass habe ich nicht beachtet beim Kauf. Hallo @ 30 Zoll (2560x1600) und 10-25Fps bei Crysis.

Ach ja Mikroruckler sind ein Gerücht. Bei 35Fps+ laufen die Spiele wie mit einer Single Graka (kann ich jedoch nur von der Nvidia Seite sagen ..)
 
weis man schon welche boardpartner sich dieser karte annehmen werden?

bei der kühlung denke ich wird bei luftkühlung mindestens ein triple-slot kühler verbaut, anders wäre das bestimmt nicht mehr zu realisieren. vielleicht setzen die hersteller aber auch auf eine wasserkühlung, wer weis? so wie sapphire mit ihren atomic modellen. nur glaube ich kaum, dass hier ein einziger 120er radiator ausreichen würde.

ist jedenfalls ein interessanter schritt, geht der kampf um die leistungskrone also in die dritte runde (4870x2 >> gtx295 >>4890x2)

Mfg
Phil
 
300watt ,2x 8Pin.. hin oder her..
ich bin fest davon überzeugt das es in zukunft auch heftiger werden wird..
Aber wer braucht wirklich so eine karte zur zeit?
 
@ Ki77ix

2x8pin bedeuten 375 Watt, auch wenn die PCIe Spezifikation "nur" 300W erlaubt durch 1*8(150W) + 1*6(75W) + PCIe-Bus(75W).. Da aber eine 4870 X2 schon die Spezifikationen verletzt, also auch 2*8 Pin gebraucht hätte, wirds mit der 4890 X2 auch im Realen oberhalb der 375W agiert werden-

=> 4890 wird mit mehr V angesteuert als die 4870, von dem her: Mehr Konsum unter Vollast.
 
Ob man davon dann zwei im Crossfire-Modus verbauen kann? :D

8GB Grafikram, dann hätte die VGA mit ihrem Ram den normalen Arbeitsspeicher eingeholt. :evillol:
 
Wie viele schreiben das AMD diese Karte rausbringt... AMD hat, wie shcon so oft gesagt, nur grünes Licht für solch eine Karte gegeben. AMD ist für diese Karte nur bei den Treiber verantwortlich für den rest müssen die Boardpartner gerade stehen.

Trotz dem kirtisiere ich AMD das sie grünes Licht gegeben haben. Aber was solls, hoffen wir das es mit der neuen Grafikkartengen. besser wird. WIe sagt man "die Hoffnung stribt zum schluss".
 
Sir Gollum schrieb:
Trotz dem kirtisiere ich AMD das sie grünes Licht gegeben haben.

Das wird AMD aber sehr weh tun. :lol:

Ich frage mich nur woher deine Abneigung gegen die Freigabe kommt, is doch schön wenn die Hardwarehersteller das bauen können zu dem sie Lust haben oder was sie technisch schaffen.
 
Der nächste Schritt wäre dann wohl, dass Grafikkarten mit nem 230V-Stecker und eigenem Netzteil geliefert werden

4Gb VRAM....ich hab nichmal soviel RAM^^

Edit: Vielleicht wäre es i-wann mal sinnvoll den Grafikkarten eigene Solarpanels mitzuliefern, die man dann iwo draußen hinstellen kann
Der passende Wandler wird dann gleich mitgeliefert....sowas nennt man dann GREEN-IT
 
Zuletzt bearbeitet: (Edit)
Über Sinn und unsinn brauch man bei solch einem produkt nicht nachdenken

aber sollte ati mal wieder die performance krone holen .. auch wenns nur für kurz ist würds mich freuen ^^
 
Heijnki schrieb:
Edit: Vielleicht wäre es i-wann mal sinnvoll den Grafikkarten eigene Solarpanels mitzuliefern, die man dann iwo draußen hinstellen kann
Der passende Wandler wird dann gleich mitgeliefert....sowas nennt man dann GREEN-IT

Ne, ich glaub die Entwicklung geht Richtung mitgelieferter Dampfturbine, um damit bestensfalls 50% der therm. Energie als elek. Energie zurückzugewinnen. Ok, die Chips müssten noch um einiges heißer werden (dürfen), und Dampfturbinen etwas billiger, aber die Entwicklung zeigt eindeutig in diese Richtung. ;)

Gruß
Raubwanze
 
@Plasma81:

Sicherlich ist ein 256 Bit SI ausreichend, aber bei einer solch extremen Karte wie der 4890 X2, die ja von dem einen Hersteller, auf den ich den Bezug nehme, von 850 MHz auf 1 GHz getaktet werden soll, wäre ein höherer Speicherdurchsatz niemals verkert. Und durch eine Verdopplung des Speicherdurchsatzes wäre sicherlich eine um 10 bis 15 % höhere Gesamtleistung der Karte möglich.

Das sieht man doch auch schon saran, dass einige Hersteller die 4870 X2 bereits mit übertaktetem Speicher anbieten und die Leistung der Karte dabei um einige Prozentpunkte steiget, obwohl der Chiptakt normal bleibt.
 
Sehr beachtlich wie zwei HD 4890 im CF abgehen, bin mal auf die Leistung von zwei X2 Boards gespannt :D

Ob das nun Sinn macht oder nicht sei mal dahin gestellt, es geht darum, dass ATi wieder voll dabei ist und das zeigen will, was ich persönlich super finde.
Nur die wenigsten kaufen sich nen Carrera GT 4 oder einen RS6/8, dennoch haben alle diese Deluxe Kisten ihre Existenzberechtigung ;)

Und zum Thema Strom, wer sich so ne Karte kauft, den juckt es nicht, ob er nun 0,3 oder 0,6 kWh verballert :) Mir wäre es nichts, aber ich bin auch nur n Casual ^^

MfG
 
Kreisverkehr schrieb:
Tja, so kanns gehen-


1. Post von y33H@ gelesen? Die Anbindung ist ausreichend, da der Chiptakt limitiert?

2. Große Texturen "müllen" den Vram zu, und je mehr Leistung, desto mehr Vram ist sinnvoll. Selbst bei der 4870 braucht man schon mindestens 1GB Vram ...

3. Diese in den News angesprochene Karte hat schon 2Gb pro Chip, den der Chip alleine ansprechen kann, die Speicherbandbreite ist durch 256bitxGDDR5-Takt ausreichend.
Wenn du jetzt den Chip umdesignen willst und den Vram halbieren willst, bremst du die Karte extrem aus, weil der Vram überläuft.

Anscheinend hast du meinen Post auch nicht richtig gelesen. Ich will den Speicher doch gar nicht halbieren. Ich will ihn so lassen, wie er momentan ist: Bei 1 GB pro Chip! Und welche Games nutzen das schon voll aus, sofern man nicht gerade bei 2560 x 1600 mit Kantenglättung etc. spielt. Ich denke, die aktuelle Serie braucht nicht mehr als 1 GB.

Und was macht dich so sicher, dass die Karte vollständig durch den Chiptakt limitiert ist? Dann frage ich mich, warum einige Hersteller die Karten mit übertaktetem Speicher anbieten, den Chiptakt jedoch nicht anrühren, und dennoch eine kleine Leistungssteigerung der Karte erzielen... Eine Verdopplung des Speicherdurchsatzes würde mit Sicherheit eine passable Leistungssteigerung von schätzungsweise 10 % bringen, während eine Verdopplung der Speichergröße nur bei Enthusiasten, die nen 30 Zöller besitzen und High-End Games wie Crysis, Far Cry 2 und GTA 4 in der nativen Auflösung mit Kantenglättung und maximaler Weitsicht spielen, eine Steigerung erzielen.
 
Da ich ein verfechter der Energiesparenden PCs bin, halt ich von solchen Karten eher nichts.

Aber schon krass, mein ganzer PC inkl. TFT verbraucht weniger Strom als die X2 Karte ;)






Gruß


Der Major
 
Jetzt, wo du es gerade sagst: Jo auch mein PC mit 8800 GTX und übertaktetem Quadcore verbraucht unter Volllast etwas weniger Strom als die X2, mit ihren (maximalen) 375 Watt.

Hoffentlich lassen die 40 nm Karten nicht mehr all zu lange auf sich warten ^^
 
Na endlch. Endlich mal GraKa wo ich Solitär auf voller Auflösung flüssig spielen kann. Und für Office 2007 müsste es auch reichen.
Wo war jetzt aber nochmal der Starkstromanschluss.... ?:D
 
@Wuffi schrieb:
[...]

Ich will den Speicher doch gar nicht halbieren. Ich will ihn so lassen, wie er momentan ist: Bei 1 GB pro Chip! [...]

Bei der Karte in der News handelt es sich aber um eine Karte mit 2GB pro Chip, nicht um 1GB/CPU wie bei der 4870 X2.
Und bei der brutalen Rohleistung (für Mikroruckler-Blinde) den Chip nicht durch vollgelaufenen Vram zu limitieren, muss eben mehr als 1GB (eben 2GB) verbaut werden. Wozu soviel Rohleistung, wenn der Vram dann volläuft und in einen unspielbaren, teils Einstelligen fps-Bereich fällt?

Warum übertakten die Hersteller den Vram? Zum einen klingts einfach besser, wenn man mehr übertaktet, auch wenn es nix bringen würde...

Was mich so relativ sicher macht ist die Aussage eines Redakteurs, der meinte, dass die Leistung am GPU-Takt klebt und weit weniger am Durchsatz.
Um den Durchsatz zu erhöhen, reicht es ja, schnelleren GDDR5-Ram zu nehmen und oder zu übertakten um den Chip nicht auszubremsen.

Bei der 4850 mit 1GB Vram statt 512MB wurden scheints höhere Speicherlatenzen in Kauf genommen, weswegen im CB-Test die Variante mit 1GB marginal langsamer war.

Außerdem, so sehr hängt der VRam-Verbrauch nicht mit der Auflösung zusammen, sondern mit AA und der Größe der Texturen. Genau da, wenn die Leistung in 1280*1024 so brutal hoch ist, da will ich 24xCFAA Edge Detect und das wiederum stopft den Vram

=> Schon bei der GTX+ hilft 1Gb Vram ggü. 512MB um nicht einzubrechen, und was ist dann erst bei stärkeren Chips wie die 4870 aufwärts?

Ach, nochwas: Die 4870 X2 hat schon jetzt einen realen Verbrauch von bis zu 370Watt, was genau erwartest du dir dann von der 4890 X2, wenn doppelt so viel Vram verbaut wurde und zusätzlich die Vcore von 1,2xxV auf 1,3xxV angehoben wurde?
 
Zuletzt bearbeitet:
Zurück
Oben