News Wird auch die Radeon HD 4830 von ATi „grün“?

LeChris schrieb:
Muss der Kunde nur noch entscheiden, ob er einem vergleichsweise unbekannten Hersteller eine Karte in eigenem Design zumutet...
Triplex ist nur bei uns unbekannt. Im asiatischem Raum ist er durchaus bekannter. Diese Karte wird es in Europa also sehr wahrscheinlich ohnehin nicht geben.

aklaa schrieb:
schön und gut, aber reicht die Auswahl an DX10.1 Karten nicht? ATI wo bleibt eure erste DX11 Megakarte??? Da geht noch was^^
Es geht in der News aber nicht um AMD/ATi sondern um Triplex.

Also ich finde diese Karte eigentlich auch unnötig. In nem Monat können sie doch die HD 47x0 Modelle grün machen, da würden sicherlich mehr Leute zugreifen.
 
Irgendwie ziemlich komische Aktion, so kurz bevor der RV740 kommt, falls es denn überhaupt stimmt. Halte ich eher für ne Machbarkeitsstudie.
 
Sollte sie doch kommen, wäre die Karte aber je nach Preis wirklich interessant. Immerhin ist die 4770 nicht so viel schneller, dürfte aber zur Einführung mehr kosten als eine 4830. Letztendlich wird aber gerade der Verbrauch im Idle zeigen, welche die grünere Karte ist.
Meiner 3850 256MB geht langsam die Luft aus, da wäre eine von den Karten sicher würdiger Ersatz.
 
Zurzeit liest man nur von solchen Projekten. Mir fehlt das bissl die Umsetzung. Wo sind denn jetzt die Green 9600GT, 9800GT, 4830 oder die auch die 4750 bzw. 4770 ?

Die sollen mal langsam auf den Punkt kommen. GreenIT könnte der Hoffnungsträger in der Branche werden.
 
einen Zwei-Slot-Kühler sollten sie aber auch nicht darauf montieren,
sonst ist der Vorteil wegen geringerem Strom- und weniger Platzverbrauch wieder verspielt.

IMHO. kann der geringere Verbrauch eigentlich nur durch einen neuen Fertigungsprozess oder ein neues Stepping der GPU erreicht worden sein.
 
Also entweder man braucht keine große Grafikleistung dann nimmt man gleich Onbord.

Hab ich beim Server, HTPC gemacht ->Radeon HD 3300 z.B aufn Foxconn A7DA-S.
Die ist gar nicht so übel(HD geht ohne Probs).

oder man will richtig Power und spielen dann baut man sich eben ne HD4780/90 ein.(das hab ich beim Desktop PC gemacht)

Son Zwischending brauch ich jedenfalls nicht.
 
das PCB der 4770 von triplex wirkt so aufgeräumt
 
@RAMMSTEiN0815:

Les mal die Überschrift. Das ist ne HD4830 :rolleyes:

Oder hast du schon Bilder von der HD4770 von Triplex?

Edit: Und ja, das PCB wurde auf das Wesentliche reduziert, um Strom zu sparen.
 
Zuletzt bearbeitet:
@tree-snake

doch, man kann schon schnellere/ bessere Grafik als onboard-Notlösung brauchen,
weil die arbeitet mit Shared-Memory, ist also nicht nur eine potentielle Systembremse,
sondern verursacht auch bei manchen CPUs Stromsparprobleme, weil die, wenn für die GPU permanent auf das RAM zugreifen sollen, ja nicht richtig IDLE sein können. (AMD X2 zB.)
Ein flotter eigener Speicher mit zumindest 64-BIT Anbindung sollte es IMHO selbst für niedrige Office-Anforderungen schon sein, und das bietet noch fast keine onboard-Grafik.

Die 4830 dagegen, wenn sie nun nicht mehr zuviel Strom verbraucht,
(und IDLE hoffentlich noch sehr viel weniger), könnte man von der
3D-Leistung her schon gut für zB. CAD verwenden, also mit einem OpenGL 3D-Editor
um zB. Gebäude zu planen. Es hängt auch von der Potenz der Grafikkarte ab, wie detailliert ein 3D-Modell sein kann, um noch flüssig dargestellt werden zu können, mit tw. Transparenz und mit Texturen und mit Zimmerpflanzen.
 
HITCHER_I schrieb:
@tree-snake

doch, man kann schon schnellere/ bessere Grafik als onboard-Notlösung brauchen,
weil die arbeitet mit Shared-Memory, ist also nicht nur eine potentielle Systembremse,
sondern verursacht auch bei manchen CPUs Stromsparprobleme, weil die, wenn für die GPU permanent auf das RAM zugreifen sollen, ja nicht richtig IDLE sein können. (AMD X2 zB.)
Ein flotter eigener Speicher mit zumindest 64-BIT Anbindung sollte es IMHO selbst für niedrige Office-Anforderungen schon sein, und das bietet noch fast keine onboard-Grafik.


Die Radeon HD 3300 hat 128 Mbyte DDR3 eigenen Speicher aufn Mainbord.
Gibt beim X2 auch keine Probleme.

Ist bei Bedarf besser als ne HD 3450 und mann könnte sie noch gut übertakten.
Da hat ATI wirklich was schönes im Angebot(und man hat immer noch nen Steckplatz aufn Mainbord falls man doch mal Power will).
 
DerZAR schrieb:
Ich hoffe, der Trend zu Green-IT geht weiter.

Ich studiere zwar in die Richtung und sage auch die Lösung unserer Energieprobleme ist 1. Effiziens zu erhöhen und Wandlungen einzusparen (Bsp.: Kohleverbrennung chemische Energie --> Wärmeenergie --> el. Energie) und 2. alternative Energien zu verwenden.

Wenn ich aber darüber nachdenke, wie viel Energie aus Solaranlagen gewonnen werden kann, setze ich mir iregendwann selbst eine PV-Anlage aufs Dach und speichere die Energie in einer Pumpenlösung ein. Und wandle diese dann nach Bedarf zurück. Dann würde ich auch genausoviel Wh verbrauchen wie ich im Schnitt erzeuge.

Dann spricht nichts dagegen, bei den zukünftigen Fortschritten bei PV Anlange, einen 1000 W Rechner zu benützen, ohne die umwelttechnischen Gesichtspunkte zu vernachlässigen.

Wenn man die Leistung benötigt spricht nichts dagegen. Allerdings stehen Rechner ja auch in Räumen und viele Aufgaben lassen sich mit immer weniger Energieumwandlungen erledigen.

In einem Büro reicht der die Wandlung für 100 Watt für Rechner und Monitor vollkommen aus.
Ich brauch grade 200 Watt, wichtig sind einfach geringe Idlewerte.
Könnte unter 60 Watt liegen, wenn ich allein meinen Monitor durch ein kleiners Modell ersetze und dazu noch den Rechner auf passiv stelle und ein Nettop verwenden würde.
Ein Idle Wert von 30 Watt wäre einmal traumhaft. Soviel wandelt alleine meine PSU in Wärme um.

Würde man PSUs mit 350 Watt Ausgangsleistung herstellen, könnte man sich dort den Lüfter und Material sparen.

Persönlich werde ich ermal an meinen TDP-Grenzen festhalten.
95 Watt CPU (mal sehen ob es Lynnfield oder Clarkdale wird)
150 Watt GPU (vielleicht mal wieder unter 100 Watt, mal sehen was Global Foundries liefern kann)
30 Watt für's restliche System (HDD/SSDs; MB; Ram; Soundkarte; Laufwerk;)

@topic
Bei Grafikkarten könnte man langsam Richtung PCIe 2 only Spezifikation gehen und auf Stromanschlüsse einfach verzichten.
 
Kasmopaya schrieb:
Kurioserweise ist die HD 4830 eine Ausnahme was den Lastverbrauch unter 100% also Furmark angeht. Mit der Karte beweist ATI das es geht wenn sie nur wollen und sind mit 93Watt locker innerhalb der TDP von 110Watt so wie es sich eigentlich für alle Karten gehören sollte.[...]

@CB finds schwach von euch das ihr immer die TDP bei solchen Rechenspielchen verwendet, benutzt doch bitte den Furmark. Bei der 4890 X2 habt ihr viel zuwenig Lastverbrauch angegeben und bei der 4830 zu viel. TDP hat nicht viel mit dem realen Lastverbrauch zu tun, aber das wisst ihr ja selbst. ;) (vorallem ATI scheint die TDP willkürlich nach Marketing zu setzten)

1. Die 4830 hat einfach nur die gleiche TDP wie die 4850 (Ähnlich wie bei den Kuma und Heka "Ausschuss 3-Cores). Aber dafür einige Recheneinheiten weniger, klar das die innerhalb der TDP bleibt.

2. CB kann ja nur angeben, was das Messgerät anzeigt, oder?

Und nein, die TDP wird genau wie bei NVIDIA nicht vom Marketing bestimmt :rolleyes:

Dann hätte das Marketing ja vor allem für die 4830 (und Heka/Kuma usw) ne niedrigere TDP gewählt, oder? ;)

Und nein, Furmark (oder ähnliches) ist bei der Bestimmung der TDP nicht das einzig ausschlaggebende.
 
1. Die 4830 hat einfach nur die gleiche TDP wie die 4850 (Ähnlich wie bei den Kuma und Heka "Ausschuss 3-Cores). Aber dafür einige Recheneinheiten weniger, klar das die innerhalb der TDP bleibt.
Und schnell genug ist sie auch noch, so sieht für mich Effizienz aus, 93Watt mit Furmark @ 100% Auslastung und für Systembauer bzw. bei der Wahl des Netzteils ein bisschen Luft zur 110Watt TDP. Genau so wirds gemacht. NV bleibt sogar bei der GTX 260 locker innerhalb der TDP unter 100% Last und das ist eine high End-Karte. Währ doch schade wenn NV wieder nachziehen müsste und auch ständig die TDP festlegt wie sie grad meinen.


2. CB kann ja nur angeben, was das Messgerät anzeigt, oder?

Ja schön wärs, es wurden aber die theoretischen TDP Angaben von ATI verwendet die meistens geschönigt sind.

Und nein, die TDP wird genau wie bei NVIDIA nicht vom Marketing bestimmt

Dann hätte das Marketing ja vor allem für die 4830 (und Heka/Kuma usw) ne niedrigere TDP gewählt, oder?
Grade bei der 4870X2 sieht man schon das man vorgaukelt innerhalb der 300Watt PCIe Specs zu liegen(beide Seiten), und ATI gibt sogar weniger TDP als bei der GTX 295, obwohl die in jeder Situation einen Batzen weniger braucht, Ausnahmen bestätigen die Regel, 4830 ist eine Ausnahme die aber schon wieder EOL ist.

Und nein, Furmark (oder ähnliches) ist bei der Bestimmung der TDP nicht das einzig ausschlaggebende.
Welches Programm erzeugt denn noch mehr Hitze um die Kühllösung drauf auslegen zu können? Bei ATI gibts zwar nicht viel GPGPU Programme, aber die wenigen reichen schon aus um die Grafikkarte auch außerhalb von Spielen mal auf 100% Last zu bringen. Bei Bioschock arbeiten wahrscheinlich einige Karten über der TDP.

http://www.3dcenter.org/artikel/die-sache-mit-der-grafikkarten-leistungsaufnahme



Keine Relevanz für den Spielealltag bedeutet jedoch nicht dasselbe in Bezug auf die TDP-Werte, welche mittels der FurMark-Messungen wie zu sehen teilweise deutlich überboten werden. Erstens einmal sollte eine TDP generell den maximalen Zustand zuzüglich Reserve wiederspiegeln – und zweitens gibt es ja auch Anwendungszwecke, die ähnliche Resultate wie der FurMark in der Praxis vermuten lassen: Denn wenn man die heutigen Grafikkarten als GPGPU-Beschleuniger einsetzt, kann es ganz schnell dazu kommen, daß diese nahezu perfekt ausgelastet werden und damit ähnliche Resultate wie der FurMark produzieren.



Gerade ATI ist hier also aufgerufen, bei zukünftigen Grafikboards durchauch auch an solche Fälle wie den FurMark zu denken – dieses Lasttool wie derzeit künstlich auszubremsen, kann keine langfristige Lösung sein. Gerade wenn ATI zukünftig verstärkt mit im GPGPU-Bereich mitmischen will, müssen die Grafikboards einen den GPGPU-Anwendungen nahekommenden FurMark einfach aushalten. An beide Grafikchip-Entwickler geht zudem die Aufforderung, bei der TDP zukünftig ehrlich zu sein und nicht mehr aus Marketing-Überlegungen heraus die TDP der leistungsfähigsten Grafikkarten möglichst niedrig anzusetzen, um besser gegenüber der Konkurrenz bzw. eigenen älteren Produkten dazustehen.


MfG Kasmo
 
Zuletzt bearbeitet:
Das Problem ist das diese Karten nicht entwickelt wurden um Furmark zu benchen sondern für Spiele/GPGPU usw und dort kommt es nirgends zu 100% vollast.

würde man das in allen Spielen schaffen, dann würde eine 4870 klar und deutlich eine 285gtx schlagen.


Es liegt nunmal an der Architektur der 5D-Shader das diese praktisch nie (außer man erzwingt es durch furmark) so stark ausgelastet sind.

Auch bei gpgpu wird das nicht passieren, denn ein sinnvolles Programm wird niemals alle Einheiten auslasten... wie auch.

Kein Mensch käme auf die Idee etwa bei einer matrixmultiplikation künstlich noch eine sinusfunktion einzubauen nur um die karte möglichst zu erhitzen.

Naja außer den Furmark-Entwicklern versteht sich.



Demnach sind Aussagen wie :

und zweitens gibt es ja auch Anwendungszwecke, die ähnliche Resultate wie der FurMark in der Praxis vermuten lassen: Denn wenn man die heutigen Grafikkarten als GPGPU-Beschleuniger einsetzt, kann es ganz schnell dazu kommen, daß diese nahezu perfekt ausgelastet werden und damit ähnliche Resultate wie der FurMark produzieren.

Blödsinn. Das kann nur von jemandem kommen der noch nie massiv parallel programmiert hat.

Aber gut, der hat der Redakteur ja auch nur vermutet aka geraten. Der Leser glaubt es aber :rolleyes:

Fakt ist wohl eher : GPGPU wird die shadereinheiten nicht mehr oder weniger auslastenals ein in gleichem Maße optimiertes Spiel


Und wenn ich dann sowas lese :

Erstens einmal sollte eine TDP generell den maximalen Zustand zuzüglich Reserve wiederspiegeln

:lol:

Den maximalen zustand + reserve ? wofür Reserve ? Warum überhaupt das maximum wenn es nie erreicht wird ?


Kann man es Ati vorwerfen eine TDP entworfen zu haben die für realitätsfernes benchen nicht reicht ?

Warum wirft niemand Intel vor das die CPUs beim hauseigenen TAT praktisch alle über der TDP liegen ?

Vielleicht weil es nicht relevant ist ?

Wer prüft seine übertaktete CPU mit TAT ? die meisten nehmen doch prime was viel weniger hitze erzeugt.



Aber vielleicht schafft es ja jemand hier im Forum ein SINNVOLLES Programm zu schreiben das auf 160 clustern jeweils 4 MADD operationen + eine UNTERSCHIEDLICHE Zusatzfunktion berechnet. (Ein bischen Pseudocode reicht schon)

Ich bin gespannt :p
 
Kann man es Ati vorwerfen eine TDP entworfen zu haben die für realitätsfernes benchen nicht reicht ?
man kann ati vorwerfen, eine tdp-angabe zu machen, die nicht den tatsachen entspricht. womit die auslastung erreicht wird, spielt keine rolle. tatsache ist, dass defakto mehr watt unter volllast gebraucht werden, als ati angegeben hat. tdp ist ein theoretischer wert, der normalerweise nicht erreicht werden sollte (außer bei furmark vllt). er stellt die höchstmögliche auslastung dar, keinen durchschittslastverbrauch, wie er üblicherweise beim zocken anfällt. von daher ist die kritik durchaus gerechtfertigt.
 
Die TDP gibt wie der Name schon sagt an, wieviel die Kühllösung abführen muß, und nicht wieviel Strom die Karte verbraucht. Und im Gegensatz zur Stromversorgung, ist eine kurzzeitiger Peak bei der Wärme nicht so kritisch. Die TDP ist für Verbrauchsdiskussionen einfach ungeeingnet.
 
tdp ist ein theoretischer wert, der normalerweise nicht erreicht werden sollte (außer bei furmark vllt). er stellt die höchstmögliche auslastung dar, keinen durchschittslastverbrauch

Das ist vielleicht deine Interpretation und auch die vieler anderer, entspricht aber nicht der Wirklichkeit.

Das was .fF schreibt kommt viel eher hin.

Siehe auch wikipedia :

Mit Thermal Design Power... wird in der Elektronikindustrie ein typischer Wert für die Verlustleistung eines Prozessors oder anderer elektronischer Bauteile bezeichnet

oder auch

Zur Ermittlung der TDP werden Lastfälle benutzt, die bei typischer Höchstbeanspruchung im realen Einsatz auftreten.
...
Da jedoch Elektronik nicht angeschafft wird, um synthetische Testprogramme laufen zu lassen, sondern um Arbeit zu verrichten, orientieren sich manche Hersteller auch an praxisrelevanten Belastungsszenarien.


das manche meinen die karte müsste furmark abfangen ist schlichtweg irrsinn.

Wer bezahlt denn die 20-30$ die eine solche Karte mehr kostet damit dies erreicht wird nur weil ein paar Irre unbedingt mit furmark beweisen wollen das die karte nicht mit einem programm dauerhaft läuft für das sie nicht entworfen wurde


Geh doch mal zu opel, kauf dir nen corsa und häng hinten nen großen Anhänger dran und beschwer dich hinterher das der Motor den Arsch hoch gemacht hat.


Ati hat nun schon die Leistung in furmark künstlich beschränkt damit dieses problem nicht auftritt, ähnlich dem Verbot mehr als 1 Tonne an einen Corsa zu hängen.

Aber ein paar Oberschlaue meinen halt die exe umbenennen zu müssen um weiterhin realitätsferne Situationen heraufzubeschwören.


Komisch das von diesen keiner eingestehen wird das die 4890 derzeit unschlagbar ist und selbst die 285 locker in die tasche steckt.

An der stelle ist furmark plötzlich wieder nicht mehr interessant, klar :rolleyes:



Im Prinzip muss man jedem der mit furmark argumentiert unterstellen entweder die Architektur seit der 2900xt nicht verstanden zu haben (was keine Schande ist !) oder aber die Ati karten künstlich schlecht aussehen zu lassen.


Das einzige was man mit furmark sagen kann ist : die ati karten haben mehr shader-einheiten verbaut als sie jemals effektiv nutzen können.

Und selbst wenn sie es könnten (was nicht geht), würden sie damit nicht stabil laufen bzw mehr verbrauchen als sie sollten.


Analog für den Autovergleich(ja ich weiß die nerven, aber so versteht es vielleicht jemand der die architektur der karte nicht versteht) : man kann an einen Corsa einen so schweren Anhänger hängen das der Corsa nicht mehr fährt. Man darf/sollte es zwar nicht, aber man kann es rein theoretisch.
 
Zuletzt bearbeitet:
@.fF: stimmt, die tdp dient eigentlich als angabe, wieviel watt durch die kühlung unter vollast abzuführen sind, nicht dem tatsächlichen verbrauch.
die dieskussion um die tdp hatten wir damals schon bei athlon xp vs pentium 4 (netburst). intel hat dann einfach eine eigene neue verbrauchsangabe eingeführt, um nicht ganz so schlecht dazustehn ;).

@Realsmasher: ist es nicht denkbar, dass kommende titel höhere anforderungen an die hardware stellen und eine last ähnlich wie furmark erzeugen? diese "knappe" angabe betrifft ja auch nur einzelne karten, nicht die hd4k allgemein. aber bedenklich finde ich diese sagen wir mal knapp bemessenen angaben schon. beim phenom hat sich amd damit schon mal negative schlagzeilen von wegen irreführende angaben eingehandelt...
 
Zuletzt bearbeitet:
ich sehe das "problem" eigentlich nur bei der 4870 und der 4890, dadurch das sie kaputt gehen können (spawas)

Bei den anderen Karten hätte man in diesem absoluten extremfall ja schließlich auch extreme Leistung, von daher wäre der Verbrauch (auch über tdp) wohl jedem egal.


Die Sache ist nur das in der Realität diese 100% vollast praktisch unmöglich sind.

Nicht nur das man sich die zähne ausbeißen wird eine Funktion so zu schreiben das immer 5 Ergebnisse auf einmal benötigt werden, man müsste auch auf die 160 hin optimieren.

Das führt aber wiederum dazu das andere Karten benachteiligt werden, z.b. die 4830 die garkeine 160 cluster hat.

Das wird also niemand tun, zumal man nvidia damit gleich komplett ausschließen würde.


Erstklassige optimierungsarbeit kann man schon heute bestaunen, das konnte man sogar schon vor jahren.

Spiele wie dirt/Grid und oblivion zeigen wo die Karten liegen wenn mal die shader optimiert zum Einsatz kommen, Crysis mittlerweile auch.

Dennoch ist man immernoch Meilenweit von furmark entfernt und wird dort auch nie landen.


Kommende Spiele werden diesbezüglich sicher nicht weiter optimiert, eher im Gegenteil. Durch den steigende Komplexität nimmt der Optimierungsdrang eher immer weiter ab.


Und ein spiel auf 5OP * 160 cluster hin bei jeder shaderoperation zu optimieren(denn nichts anderes würde 100% last bedeuten) ist einfach nur utopisch.

Mal ganz davon abgesehen das speicherinterface,ROPs, CPU und Scheduling weiterhin auch an keiner Stelle limiteren dürften.

Nein, ich halte das für ausgeschlossen.

Ein Beispiel : wäre dies der Fall (also das nichts limitiert), dann würden schon 80% Auslastung ausreichen damit eine 4890 durchgängig schneller ist als eine 285gtx.

Das zeigt ungefähr wo wir uns heute befinden : bei ~70%.

Alles über 80% ist schon eine geniale, programmiertechnische Leistung vor der ich meinen Hut ziehe.

90% und mehr bei einem Spiel oder komplexen Berechnungen halte ich für unmöglich vom Aufwand her.
 
Zurück
Oben