Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
ATi HD5800 und nVidia GTX400 (DX11 Gerüchteküche)
- Ersteller Lübke
- Erstellt am
- Status
- Für weitere Antworten geschlossen.
Schaffe89
Banned
- Registriert
- Sep. 2008
- Beiträge
- 7.933
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)
1000mhz? Wird dann in etwa 15% schneller als eine HD5870 sein und 60% schneller als ne GTX285, aber ich glaub kaum, dass sich der Aufpreis lohnt.
Ich warte da lieber mal auf ne HD5890. Ich frage mich, warum ATI eine HD5870 mit diesem Takt zulässt?
Die Chancen könnten somit gut liegen, dass die HD5890 mit 1100mhz Takt kommt.![Breites Grinsen :D :D](/forum/styles/smilies/biggrin.gif)
1000mhz? Wird dann in etwa 15% schneller als eine HD5870 sein und 60% schneller als ne GTX285, aber ich glaub kaum, dass sich der Aufpreis lohnt.
Ich warte da lieber mal auf ne HD5890. Ich frage mich, warum ATI eine HD5870 mit diesem Takt zulässt?
Die Chancen könnten somit gut liegen, dass die HD5890 mit 1100mhz Takt kommt.
![Breites Grinsen :D :D](/forum/styles/smilies/biggrin.gif)
Zuletzt bearbeitet:
Felixxz21
Lt. Commander
- Registriert
- Sep. 2007
- Beiträge
- 1.532
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)
Natürlich wird die Karte sehr teuer, aber es ist ein gutes Zeichen für die 5890, die dann aber mit einem deutlich potenteren Kühler erscheinen muss.
Bei 1100 könnte die Karte sogar über einer GTX 380 liegen, nach meinem Glauben. Aber fraglich ist ob ATi die Taktschraube so weit hochgehen lässt, wären immerhin + 250 MHz, bei einer GPU extrem viel.
Natürlich wird die Karte sehr teuer, aber es ist ein gutes Zeichen für die 5890, die dann aber mit einem deutlich potenteren Kühler erscheinen muss.
Bei 1100 könnte die Karte sogar über einer GTX 380 liegen, nach meinem Glauben. Aber fraglich ist ob ATi die Taktschraube so weit hochgehen lässt, wären immerhin + 250 MHz, bei einer GPU extrem viel.
melemakar
Lieutenant
- Registriert
- Mai 2005
- Beiträge
- 772
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)
Könnte das bedeuten - angenommen die Infos stimmen natürlich - dass AFR Geschichte sein soll?
GF100 and GF104 feature full SLi capability and a new scaling method for rendering!
Könnte das bedeuten - angenommen die Infos stimmen natürlich - dass AFR Geschichte sein soll?
Schaffe89
Banned
- Registriert
- Sep. 2008
- Beiträge
- 7.933
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)
Was hat rendering mit Multi GPU zu tun? Wenn das so wär wärs natürlich toll aber ich glaube da nicht drann.^^
Die neue rendering Methode hat wahrscheinlich die Architektur des Femris bis zu einem bestimmten Punkt verändert.
Ich glaub aber eher an Performanceverbesserungen bzw Verbesserungen in der Architektur, welche jetzt auch bald kommen müssen, da das stetige aufpumpen der TMUS, Shader etc... irgendwann auch mal an einer gewissen grenze angelangt sein wird.
Man sieht ja dass immer kleinere Strukturen dann früher oder später zu Yield Problemen wie bei TSMC führen können.
Was hat rendering mit Multi GPU zu tun? Wenn das so wär wärs natürlich toll aber ich glaube da nicht drann.^^
Die neue rendering Methode hat wahrscheinlich die Architektur des Femris bis zu einem bestimmten Punkt verändert.
Ich glaub aber eher an Performanceverbesserungen bzw Verbesserungen in der Architektur, welche jetzt auch bald kommen müssen, da das stetige aufpumpen der TMUS, Shader etc... irgendwann auch mal an einer gewissen grenze angelangt sein wird.
Man sieht ja dass immer kleinere Strukturen dann früher oder später zu Yield Problemen wie bei TSMC führen können.
Zuletzt bearbeitet:
Felixxz21
Lt. Commander
- Registriert
- Sep. 2007
- Beiträge
- 1.532
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)
Dir Frage ist halt wie das in der Praxis ausschaut. Also ob man den Leistungsverlust das Fehlen von Mikrorucklern wert ist.
SFR macht aber auch nur mit Load Balancing (Scissor Mode) wirklich Sinn, da z.B. in Crysis dann eine Karte viel Himmel (nicht sehr aufwändig) und die andere Karte viele Pflanzen, Wasser, Explosionen etc. dartstellen muss, was dann immernoch sehr schlecht verteilt ist. Mit Load Balancing müsste die Karte mit dem Himmel dann mehr als die Hälfte berechnen, was dynamisch angepasst wird.
Ich halte SuperTilling (ein ähnliches Verfahren funktioniert bei der Xbox 360 auch sehr gut) ebenfalls für eine Interessante Methode. Hier wird das Bild in ein Schachbrett aufgeteilt und jede Karte berechnet eine "Farbe".
Ist aber alles viel schwieriger zu implementieren und MultiGPU ist nunmal ein sehr kleiner Markt in dem wenig Geld verdient wird. AMD hat ja selber gesagt, sie könnten µRuckler beheben, jedoch sitzt zz. nur ein sehr kleines Team an diesem Problem.
Dir Frage ist halt wie das in der Praxis ausschaut. Also ob man den Leistungsverlust das Fehlen von Mikrorucklern wert ist.
SFR macht aber auch nur mit Load Balancing (Scissor Mode) wirklich Sinn, da z.B. in Crysis dann eine Karte viel Himmel (nicht sehr aufwändig) und die andere Karte viele Pflanzen, Wasser, Explosionen etc. dartstellen muss, was dann immernoch sehr schlecht verteilt ist. Mit Load Balancing müsste die Karte mit dem Himmel dann mehr als die Hälfte berechnen, was dynamisch angepasst wird.
Ich halte SuperTilling (ein ähnliches Verfahren funktioniert bei der Xbox 360 auch sehr gut) ebenfalls für eine Interessante Methode. Hier wird das Bild in ein Schachbrett aufgeteilt und jede Karte berechnet eine "Farbe".
Ist aber alles viel schwieriger zu implementieren und MultiGPU ist nunmal ein sehr kleiner Markt in dem wenig Geld verdient wird. AMD hat ja selber gesagt, sie könnten µRuckler beheben, jedoch sitzt zz. nur ein sehr kleines Team an diesem Problem.
- Registriert
- Aug. 2007
- Beiträge
- 21.162
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)
super tiling klingt für mich sehr interessant. wenn dann am ende "echte" fps, sprich ein gleichmäßiger frameverlauf dabei rauskommt, ist das imo ne gute sache. fragt sich halt nur, wieviel watt pro fps eine dual-gpu dann zieht im vergleich zur einzel-gpu-lösung.
bisher bin ich bei multi-gpu skeptisch.
super tiling klingt für mich sehr interessant. wenn dann am ende "echte" fps, sprich ein gleichmäßiger frameverlauf dabei rauskommt, ist das imo ne gute sache. fragt sich halt nur, wieviel watt pro fps eine dual-gpu dann zieht im vergleich zur einzel-gpu-lösung.
bisher bin ich bei multi-gpu skeptisch.
Motkachler
Lt. Commander
- Registriert
- Sep. 2004
- Beiträge
- 1.563
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)
It seems likely that upcoming generations of ATI video cards -- probably starting with the HD 6000 series -- will also support this upcoming 3D Blu-ray standard as well.
http://www.neoseeker.com/news/12541-amd-demonstrating-support-for-new-blu-ray-3d-at-ces-/
It seems likely that upcoming generations of ATI video cards -- probably starting with the HD 6000 series -- will also support this upcoming 3D Blu-ray standard as well.
http://www.neoseeker.com/news/12541-amd-demonstrating-support-for-new-blu-ray-3d-at-ces-/
P
Pickebuh
Gast
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)
Irgendeine Quelle ?
Sicherlich kann man auch was neues erfinden aber extra für den Enthusiasten-Markt soviel Kapital zu investieren sieht einem Großunternehmen nicht ähnlich.
Die Zeiten von Philips,IBM und Siemens sind leider vorbei.
Nun zählt nur noch soviel Geld wie möglich so günstig wie es geht zu erwirtschaften.
Wenn NVIDIA da doch etwas eigenes auf die Beine stellt dann Hut ab. NVIDIA wird dadurch doch deutlich sympathischer !![Zwinkern ;) ;)](/forum/styles/smilies/wink.gif)
y33H@ schrieb:NV hat sogar n Patent angemeldet ...
Irgendeine Quelle ?
Sicherlich kann man auch was neues erfinden aber extra für den Enthusiasten-Markt soviel Kapital zu investieren sieht einem Großunternehmen nicht ähnlich.
Die Zeiten von Philips,IBM und Siemens sind leider vorbei.
Nun zählt nur noch soviel Geld wie möglich so günstig wie es geht zu erwirtschaften.
Wenn NVIDIA da doch etwas eigenes auf die Beine stellt dann Hut ab. NVIDIA wird dadurch doch deutlich sympathischer !
![Zwinkern ;) ;)](/forum/styles/smilies/wink.gif)
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)
er bezieht sich wohl auf dieses post:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7774727#post7774727Ailuros schrieb:Gut dann wird's Zeit dass der schlechteste mod hier das Blatt etwas wendet:
Sie haben anscheinend doch ziemlich gute Hausarbeiten geleistet was Dreiecks-raten bzw. Tesselation betrifft und auch mit dem ominoesen AA Muster ueber welches man schon seit Jahren meckert. Zumindest die MSAA Anzahl fuer das 32xAA hab ich wohl getroffen und errrr weiteres gibt es erst spaeter sonst krieg ich noch eins aufs Dach![]()
er bezieht sich wohl auf dieses post:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7734112#post7734112Ailuros schrieb:http://www.facebook.com/NVIDIA?ref=nf
8xMSAA+24xCSAA? Ich weiss zwar nicht was damit gemeint ist, aber vom Hocker reisst mich die Meldung so oder so nicht.
Crystal
Lt. Commander
- Registriert
- Mai 2006
- Beiträge
- 1.385
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)
Grafikkarten - Bald weniger AMD- und Nvidia-Partner?
Schade wenn das stimmt, weniger Grafikkarten Hersteller auf den Markt, weniger Konkurenz, weniger Vielfalt, höhere Preise?
Grafikkarten - Bald weniger AMD- und Nvidia-Partner?
Schade wenn das stimmt, weniger Grafikkarten Hersteller auf den Markt, weniger Konkurenz, weniger Vielfalt, höhere Preise?
Complication
Banned
- Registriert
- Okt. 2009
- Beiträge
- 4.277
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)
Keine GPUs = Keine Karten die ich verkaufen kann wenn ich nur Nvidias baue - logisch.
Seltsame Überschrift - was hat denn AMD damit zu tun dass Nvidia seine Partner am ausgestrecktem Arm verhungern lässt?Bereits gegen Ende 2009 hab es Gerüchte, dass sich der Grafikkarten-Markt, zumindest was die Partner von Nvidia angeht, ändern würde.
Keine GPUs = Keine Karten die ich verkaufen kann wenn ich nur Nvidias baue - logisch.
Motkachler
Lt. Commander
- Registriert
- Sep. 2004
- Beiträge
- 1.563
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)
Das haben sie aus der NEWs gezaubert da klingts eher so als wenn NV die rauschmeissen will weil sie auch AMD karten bauen.
http://www.hardocp.com/news/2010/01/09/gpu_news_from_ces
Das haben sie aus der NEWs gezaubert da klingts eher so als wenn NV die rauschmeissen will weil sie auch AMD karten bauen.
http://www.hardocp.com/news/2010/01/09/gpu_news_from_ces
Zuletzt bearbeitet:
Crystal
Lt. Commander
- Registriert
- Mai 2006
- Beiträge
- 1.385
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)
@Motkachler xD na das wär doch mal was! Ich glaube aber nicht, auch wenn NV angepisst wäre, so würden die sich kaum von der "Kundschaft" abwenden, weil diese fremd gehen.
Irgendwie ist es erschreckend, NV kann kaum G200er liefern, der Fermi soll kommen wann ist unklar, völlig ungewiss und es ist sehr wahrscheinlich dass dieser schlechte Yield haben wird. Ich bin zwar eher auf AMDs seite, allein aus Firmenpolitischen Gründen aber NV soll mal AMD druck machen! Konkurenz ist das was schnellsten wieder bestehen muss wie zu HD3/HD4 gegen G80/G92b/G200 Zeiten.
@Motkachler xD na das wär doch mal was! Ich glaube aber nicht, auch wenn NV angepisst wäre, so würden die sich kaum von der "Kundschaft" abwenden, weil diese fremd gehen.
Irgendwie ist es erschreckend, NV kann kaum G200er liefern, der Fermi soll kommen wann ist unklar, völlig ungewiss und es ist sehr wahrscheinlich dass dieser schlechte Yield haben wird. Ich bin zwar eher auf AMDs seite, allein aus Firmenpolitischen Gründen aber NV soll mal AMD druck machen! Konkurenz ist das was schnellsten wieder bestehen muss wie zu HD3/HD4 gegen G80/G92b/G200 Zeiten.
Complication
Banned
- Registriert
- Okt. 2009
- Beiträge
- 4.277
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)
@Motkachler
wo liest du das mit AMD raus?
@Motkachler
wo liest du das mit AMD raus?
Motkachler
Lt. Commander
- Registriert
- Sep. 2004
- Beiträge
- 1.563
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)
This means that XFX will lose all underlying NVIDIA support on GPU allocation and new product launches...including Fermi
Fragt sich warum?
XFX baut auch ATI Karten
http://www.pc-pirat.de/eshop.php?action=article_detail&s_supplier_aid=xfx5870&rid=geizhals
This means that XFX will lose all underlying NVIDIA support on GPU allocation and new product launches...including Fermi
Fragt sich warum?
XFX baut auch ATI Karten
http://www.pc-pirat.de/eshop.php?action=article_detail&s_supplier_aid=xfx5870&rid=geizhals
Zuletzt bearbeitet:
- Status
- Für weitere Antworten geschlossen.
Ähnliche Themen
- Antworten
- 1.446
- Aufrufe
- 159.531