News Radeon RX 6600 XT vorgestellt: Mehr Leistung als RX 5700 XT und RTX 3060 für 379 USD

pipip schrieb:
Meine Hoffnung ist eher dass Engines klüger werden und mehr rausholen.
Das wird nicht mit Unreal Engine, Unity, Godot etc. passieren.
Kostet alles zu viel Zeit/Geld und solange die Hardware immernoch hinterher geschmissen wird...
Ergänzung ()

pipip schrieb:
Ist doch wieder ein Markidding Buzzword nur um die "neue" Hardware mit "neuen" features zu verkaufen.
Mit 100% Raytracing ab 2000 wäre das nicht passiert, da kommt das meiste for free ohne massen an Hacks.
 

Quonux

FSR steht für FidelityFX Super Resolution
https://www.computerbase.de/2021-06/amd-fidelityfx-super-resolution-fsr-test/

Es ist ein offener Standard von AMD, der AMD Grafikkarten bis zur RX 400 Serie und bis zur GTX 1000 Serie unterstützt. Ebenso APUs und Intel dürfte auch Unterstützung bekommen.
Weiters mpchte Microsoft zukünftig FSR für ihre XBOX Konsolen nützen.

Und wir reden hier teils von 30% Performance Einsparung im Vergleich zu Nativ mit einem vergleichbaren Bild.

Kurz Buzzword für etwas, was auf aktueller und älterer Hardware läuft.

Es ist aber noch recht neu, wird also noch etwas dauern. Die Integration soll aber nicht kompliziert sein, wenn man Interviews mit einigen Devs glauben mag. Natürlich muss sich aber mal zeigen, wie sich das so bei einer breiten Palette von Spielen schlägt.
 
Ich hätte da mal ne Frage aus dem Off.
Warum mäßigst du dich nicht mal ein bisschen? (rethorisch gemeint)
elmex201 schrieb:
Mäßige dich mal bitte! Ich beschreibe die Marktlage und stelle keine Forderungen.
er hat sich doch gar nicht im Ton vergriffen oder behauptet das du Forderungen stellst.
elmex201 schrieb:
Für ein Gaming Rechner mit den Specs eine Xbox Series X oder einer PS5 muss man mittlerweile 1500 bis 2000 Euro hinlatzen
Nein muss man nicht. Hat man einen PC reicht eine 3060 aufwärts für die Leistung der PS5. Steht alles schon hier drin musst du überlesen haben. https://www.computerbase.de/forum/t...d-rtx-3060-fuer-379-usd.2034724/post-25887338

Hat man keinen bitteschön gleichwertig mit der Ghost 3060, wesentlich besser mit der 3060Ti Eagle
https://geizhals.de/?cat=WL-2086406
mit einer 6800XT landest in dem von dir benannten Preisregionen. Das ist dann aber die mehrfache Leistung jeglicher existenten Konsole natürlich kann man dann den Preis der XBox momentan 669€ runterrechnen weil die braucht man ja nicht mehr kaufen.

begin_prog schrieb:
Mach dir mal den Spaß, geh auf die Domain
Alter Schwede was für ein unnötiger Trash :D:lol::D.
 
Quonux schrieb:
Mit 100% Raytracing ab 2000 wäre das nicht passiert,
zusammen mit Einführung von HPF beziehungsweise DPF... also... Hours per Frame oder Days per Frame...
 
  • Gefällt mir
Reaktionen: begin_prog und ETI1120
elmex201 schrieb:
Das sit der eigentlich Wert, die Marge ist aber wesentlich höher.
Der Vergleich mit den Konsolen hinkt. AMD räumt Microsoft und Sony bessere Konditionen ein.
Microsoft und Sony subventionieren die Hardware, weil sie mit der Software das Geld verdienen.
elmex201 schrieb:
Für den Otto-Normal-Verbraucher kann das egal sein. Für Ihn bietet die Nex-Gen-Konsole das viel bessere Preis-Leistungs-Verhältnis. Ergo kann man auf Dauer diese Preisgestaltung nicht halten.
In diesem Forum vertreten viele die Meinung, dass Konsolen viel zu leistungsschwach sind und eine sehr schlechte Grafikqualität liefern ... alles unter der Leistungen einen #### (bitte Karte einsetzen) ist Schrott.

10 Millionen PS5 zeigen, dass viele Leute eine andere Meinung haben.

Wir werden sehen wie der Gaming-Markt reagiert, falls die 300 Euro-Preisklasse verschwindet.

Aber vielleicht verschwindet die 300 Euro-Preisklasse nicht, sondern wird mit Grafikkarten der vorherigen Generation bedient ...

elmex201 schrieb:
Das ist eben aus der Gamer bzw. Ich-will-unbedingt-haben Sicht beschrieben.
Das ist berechtigt. Aber "diese Ich-will-unbedingt-haben" Mentalität ist einer der Faktoren, der die Preise in dieser Marktlage nach oben treibt. Und dass sich die GPU-Preise generell nach oben bewegen wäre ohne die weit verbreitete "diese Ich-will-unbedingt-haben"-Mentalität unmöglich.
elmex201 schrieb:
Mäßige dich mal bitte! Ich beschreibe die Marktlage und stelle keine Forderungen.
Du beschreibst Deine Sicht der Marktlage, er sieht es anders. Er hat manchmal einen bisschen agressiv genervten Ton drauf.

Und bei der Beschreibung der Marktlage ignorierst Du, dass auch die Konsolen über UVP gehandelt werden.

elmex201 schrieb:
Tja ich rede aber nicht über die jetzige Situation.
Dann ist AMD aber die falsche Adresse. Das ist alleine der Verdienst von Nvidia, die einen Marktanteil von ca 80 % haben. Und der "diese Ich-will-unbedingt-haben"-Gamer.

Ich bin davon überzeugt dass AMD mehr Marktanteil will.
Dazu gibt es zwei Methoden:
  • Preislich Nvidia unterbieten
  • Nvidia die Leistungskrone abnehmen

Das preisliche Unterbieten hat nicht funktioniert. Die Masse der Gamer war immer bereit einen Nvidia-Bonus zu bezahlen. Um auf Stückzahlen zu kommen musste AMD mit Minimargen leben und hat oft Verlust gemacht. Dass Nvidia auf Featureebene davongezogen ist, war die Folge der Minimargen.

Seit 2019 fährt AMD eine andere Strategie. Bei RDNA 1 hat AMD keine 5800 und 5900 auf den Markt gebracht. Aber die 5700X war schneller als die RTX2070 so dass Nvidia die 2070S aus dem Hut zaubern musste. Beim Preispunkt hat AMD den Nvidia-Bonus ignoriert. Somit war die 5700X für viele zu teuer.

Mit 6800/XT/6900XT hat AMD bei der Rasterleistung aufgeschlossen und erstmals Hardwareunterstützung fürs Raytracing eingebaut. Und wieder die Preise wieder ohne Nvidia-Bonus festgesetzt.

Im Vorfeld hatte Nvidia kalte Füße bekommen und die Preisschraube etwas zurückgedreht. Wir wissen heute wieso.

Und dann kam die große Knappheit bei der Nvidia und AMD alles was sie haben raushauen.Trotzdem kommt bei den Gamern zu wenige Grafikkarten an.

Und wir diskutieren hier weil AMD die Frechheit besitzt für die 6600XT einen UVP festzulegen, der über der RTX3600 liegt. Obwohl der UVP irrelevant ist weil momentan keine Karte zum UVP verkauft wird.

elmex201 schrieb:
Klopapier und Seife ist auch wieder reichlich verfügbar und zwar zu Normalpreisen.
Es gab bei Klopapier und Seife nur einen einzigen Faktor: Es wurde gehamstert. Und nach dem Hamstern lag es bei den Käufern. Die ihren nächsten Kauf aufgeschoben haben.

Bei den Halbleitern ist das ganze etwas komplizierter. Das sieht man am Umstand dass alle Grafikkarten über UVP verkauft werden.

In der Sache, dass AMD und Nvidia die Preissegmente unter 300 Euro nicht verhungern lassen dürfen, hast Du vollkommen recht.

Die Preissegmente unter 100 Euro werden von den IGPs aufgefressen. Aber im Preissegment zwischen 100 und 300 Euro hat die Masse der Gamer ihre Grafikkarte gekauft. Und ist zufrieden damit. Auch wenn das viele High-End "diese Ich-will-unbedingt-haben"-Gamer nicht nachvollziehen können oder wollen.

Die Konsolen sehen nächstes Jahr erheblich weniger attraktiv aus. Die Frage ist, ob AMD und Nvidia die Leistung nur über mehr Chipfläche und höhere Takte nach oben treiben, oder ob die Architektur auch etwas beisteuert.

Und die große Unbekannte bleibt Intel.

elmex201 schrieb:
Damit hättest du deine ganze Tirade sparen können.
Wenn Du Litanei geschrieben hättest ... aber "Tirade" nehme ich Dir übel, ;)
 
A.Xander schrieb:
Ich hätte da mal ne Frage aus dem Off.
Warum mäßigst du dich nicht mal ein bisschen? (rethorisch gemeint)
Provokante Fragen "Was sollen sie jetzt konkret machen?" und dummdreiste "Belehrungen" (ich weiß das selber) die völlig am Thema vorbei gehen, dass ich angeschnitten habe. Mit so einer unterstellenden Art und Weise braucht man erst gar nicht zu diskutieren und dazu ist es elementar beim Thema zu bleiben und zu begreifen was der andere überhaupt aussagen möchte.
A.Xander schrieb:
Nein muss man nicht. Hat man einen PC reicht eine 3060 aufwärts für die Leistung der PS5. Steht alles schon hier drin musst du überlesen haben. https://www.computerbase.de/forum/t...d-rtx-3060-fuer-379-usd.2034724/post-25887338

Hat man keinen bitteschön gleichwertig mit der Ghost 3060, wesentlich besser mit der 3060Ti Eagle
https://geizhals.de/?cat=WL-2086406
mit einer 6800XT landest in dem von dir benannten Preisregionen. Das ist dann aber die mehrfache Leistung jeglicher existenten Konsole natürlich kann man dann den Preis der XBox momentan 669€ runterrechnen weil die braucht man ja nicht mehr kaufen.
Man muss nicht gleich Korinthen kacken. Eine 6700 XT kostet bei seriösen Händlern weit über 700 Euro. Mit einer einfachen Überschlagsrechnung landet ein entsprechend ausgestatteter Gaming PC im besagten Preisbereich. Und für meine Aussage ist völlig unerheblich ob so ein PC "nur" 1300 Euro oder 1899 Euro kostet. Eine Xbox Series X (inklusive Controller und Blu-Ray-Player) bietet das wesentlich bessere Preis-Leistungsverhältnis und konkurriert eben auch im Gaming-Markt. Damit kann man auch aktuelle Spiele mit Raytracing und 4K genießen und muss keine 700 Euro für eine Midrange-Karte rausballern.
 
elmex201 schrieb:
Mäßige dich mal bitte!
Hmm, ich habe mich gar nicht aufgeregt. Der Vergleich mit den Konsolen hinkt wirklich: nicht nur wegen der Hardware-Subventionierung. Auch der große Brocken der Entwicklungskosten wurde wohl gemeinsam gestemmt, so wird es jedenfalls kommuniziert (als gemeinsam entwickelte Konsole).

Man sieht an der "Paradies-Vogel-APU" (die PS5-APU mit GDDR6 on board) ganz gut, was AMD damit darf und was nicht. Wir können wohl davon ausgehen, dass in der mittlerweile ganz gut gereiften Fertigung keine ganzen GPU-Blöcke defekt sind, es wäre also clever gewesen, die meisten Chips mit der funktionierenden 75 % oder 50 % - GPU auszuliefern. Wenn man das nicht macht und so ein seltsames Produkt auf den Markt bringt, heißt das wohl, dass AMD aus den Konsolen-Deals keine APU verkaufen darf. Gut nachvollziehbar.

elmex201 schrieb:
"Was sollen sie jetzt konkret machen?" = provokante Frage?
Das war überhaupt nicht provokant, du hast es nur so verstanden. Und du hast Vergleiche gezogen, die implizieren, dass man PS5-Hardware auch im PC-Bereich zu diesen Kosten verkaufen könnte. Direkt über mir sagst du das nochmal. Wenn jemand Gründe nennt, die dagegen sprechen, ist das auch keine "dummdreiste Belehrung". Wir diskutieren hier, alles gut....
 
Zuletzt bearbeitet:
ETI1120 schrieb:
Der Vergleich mit den Konsolen hinkt. AMD räumt Microsoft und Sony bessere Konditionen ein.
Microsoft und Sony subventionieren die Hardware, weil sie mit der Software das Geld verdienen.
Nein hinkt der nicht! Der Kunde steht im Markt und kann sich entscheiden ob er für 700 Euro eine Midrange-Karte holt oder eben für 500 Euro eine Next-Gen-Konsole.
 
elmex201 schrieb:
Der Kunde steht im Markt und kann sich entscheiden ob er für 700 Euro eine Midrange-Karte holt oder eben für 500 Euro eine Next-Gen-Konsole.
Wenn der Kunde denkt, er würde mit der Konsole das Gleiche bekommen, kann er das tun. Sachgerecht ist das aber nicht. Auch wenn man die wirtschaftlichen / vertraglichen Gründe mal beiseite lässt. Die Konsolen wenden ja einige Tricks an, um schlechtere Qualität noch halbwegs passabel rüber zu bringen.

Ich glaube auch nicht, dass jeder sich eine Konsole als Zusatz-Gerät hinstellen würde. Einen PC haben wir ohnehin.

ETI1120 schrieb:
Aber vielleicht verschwindet die 300 Euro-Preisklasse nicht, sondern wird mit Grafikkarten der vorherigen Generation bedient ...
Sie bringen sicherlich wieder was, so bald sie genug Kapazität haben. Im mengenmäßig attraktiven 200- und 300 €-Bereich lohnen sich bestimmt auch eigene Chips.

Schwarz sehe ich eigentlich nur für die Kleinst-Grafikkarten, die von einer APU geschlagen werden. Die Zahl der Kunden mit dicker CPU und geringen Grafik-Anforderungen, die aber unbedingt eine aktuelle Karte brauchen, wird wohl nicht reichen. Raphael soll ja einen (kleinen) RDNA2-Teil haben.
 
Zuletzt bearbeitet:
ETI1120 schrieb:
Das ist berechtigt. Aber "diese Ich-will-unbedingt-haben" Mentalität ist einer der Faktoren, der die Preise in dieser Marktlage nach oben treibt. Und dass sich die GPU-Preise generell nach oben bewegen wäre ohne die weit verbreitete "diese Ich-will-unbedingt-haben"-Mentalität unmöglich.
Hier im Forum ist herrscht eine völlig verzerrte Wahrnehmung der Realität. Für viele der Hardware-Junkies hier scheint das Gaming bzw. eher Aufrüstwahn der einzige Lebenssinn zu sein. Man sieht wie einige mit ihrer Hardware prahlen und damit ihr Ego aufpolieren wollen. Kindisch und pubertär ist das. Ich bin wohl zu alt für so ein Blödsinn. Man "braucht" in der Regel auch keine neue Grafikkarte.

Enthusiasten mit entsprechende Brieftasche können und sollen machen was sie wollen. Da habe ich auch nichts dagegen im Gegenteil. Enthusiasmus ja auch der Begriff für genau ein bestimmtes Marktsegment. Aber 700 Euro für eine Midrange-Karte ist völlig overpriced und dem aktuellen Mangel zu verdanken. Auf Dauer können die Hersteller mit dieser Preisschraube nicht weiterarbeiten und gar fester drehen (wie hier einige vermuten). Einfach weil viele Normalos und die Leute sind keine "Normalos", einfach abspringen und sich andere Möglichkeiten oder Hobbys aussuchen.
Ergänzung ()

begin_prog schrieb:
Wenn der Kunde denkt, er würde mit der Konsole das Gleiche bekommen, kann er das tun. Sachgerecht ist das aber nicht. Auch wenn man die wirtschaftlichen / vertraglichen Gründe mal beiseite lässt. Die Konsolen wenden ja einige Tricks an, um schlechtere Qualität noch halbwegs passabel rüber zu bringen.
Schon von der Rohleistung ist eine Xbox Series X performanter als aktuelle "Midrange" Hardware. Er bekommt auch nicht "das Gleiche" aber etwas vergleichbares. Die Konsole ist langlebiger und kann dann eine Grafikkarte holen wenn sich der Markt etwas beruhigt hat.
 
elmex201 schrieb:
Nein hinkt der nicht! Der Kunde steht im Markt und kann sich entscheiden ob er für 700 Euro eine Midrange-Karte holt oder eben für 500 Euro eine Next-Gen-Konsole.

Die Konsolen werden subventioniert um dir als Kunden (und den Publishern) langfristig mehr Geld aus der Tasche zu ziehen, als sie dies bei einer konventionellen Preispolitik könnten.

Letztendlich stotterst du das eingesparte Geld auch nur über die Jahre ab und zahlst dann im durchschnitt auch noch drauf. Ein bisschen wie Handyverträge mit dem IPhone für 100€.
 
@pipip :

Ja, das kann ich mir auch gut vorstellen, dass es den meisten nicht schmeckt und ich denke 'mal noch ist die Aenderung nicht vollzogen im Grafikkartenmarkt sondern immer noch im Gange.

Angedeutet wurde das ja auch im letzten Video von Tom/Moore's Law is Dead, nur denke ich schon, dass es kritikwuerdig ist nicht nur weil per se die Einstiegspreise steigen, sondern, weil es in den unteren Preissegmenten keine brauchbaren Alternativen gibt, denn die aktuellen APUs und iGPUs sind da leider noch zu schwach.

Ob sich das dann viellleicht mit Rembrandt APUs oder Raptor Lake iGPUs aendern wird und diese die klaffende Preisluecke, in der die Mehrheit der PC Gamer angesiedelt sind, ausfuellen koennen, bleibt abzuwarten und bis dahin ist es ja voraussichtlich noch ein Weilchen hin.

Natuerlich kommt auch wegen der Konsolenstarts (PS5 und XBSS/XBSX) und neuen Anwendungsgebieten (Automotive, IoT, Cloud, etc.) auf einmal viel zusammen in Sachen Chipfertigung und Fabauslastung, keine Frage, aber es hindert ja keinen daran altere Modelle wieder auf zu legen, die eben in die Preisluecke passen und den Markt entlasten und fuer welche es sicherlich auch Kaeufer/Bedarf gaebe (das sieht man ja an den hohen Preisen auch fuer Modelle aelterer GPU-Generationen)

Welchen Weg Intel - also Koduri in Absprache mit Gelsinger, dem Marketing, usw. - einschlagen wird, muessen wir erst einmal abwarten, richtig ist natuerlich, dass Intel nicht gerade den Ruf geniesst, Preisschlager zu produzieren, aber wahr ist auch, dass man im (Gaming-)dGPU Bereich noch keinen nenenswerten Marktanteil besitzt und sich solch einen am schnellsten/besten angeln koennte mit sehr attraktiven Produktpreisen in der ersten (Gaming-GPU-)Generation.

Nun gut, Larrabee ist lange her und damals war Koduri noch nicht bei Intel und ausserdem sah die Marktstrategie natuerlich anders aus als heute (diese hat sich ja auch schon in den letzten Jahren massiv von Krzanich zu Swan und jetzt Gelsinger geaendert bei Intel).
Fakt ist, dass Gaming-GPUs kommen werden und der Markt auch fuer Intel eine Rolle spielt (evt. ein Testballon ist) und nicht nur die Maerkte mit noch hoeherer GPU-Marge.

Wenn man sich nVidia anschaut, stuetzt sich heute immer noch ein Grossteil der Gewinne auf die Gaming-GPU-Sparte, auch wenn man sich in den letzten 10 Jahren mehr und mehr diversifiziert hat.
Ob es sich AMD/RTG mit dem schrumpfenden Gaming-dGPU-Marktanteil leisten kann und es clever ist, diesen noch mehr zu vernachlaessigen, wenn dann vielleicht die Mining-Ennahmen (zeitweise wieder) wegfallen, die Produkionskapazitaeten bei TSMC und Samsung eher an die Konkurrenz vergeben werden, weil die mehr produzieren lassen und investieren (koennen und wollen), sollte man sich auch stellen.

Das Argument (500 Euro UVP) Next GenKonsole wird natuerlich gerne verwandt, auch um die bizzaren GPU-Preise aktuell vor zu fuehren. Fakt ist aber auch, dass die Spiele dort gehoerig teurer zu haben sind als bei Steam-, Origin-, und GoG-Sales, per Humble Bundles und in Key Stores, um nur einige Beispiele zu nennen. Zudem werden i.d.R. irgendwelche Abo-Zusatzservices bei Konsolen jetzt generell faellig, um den vollen Funktionsumfang (bspw. Online-Multiplayer) beim spielen zu erhalten oder man beschraenkt sich da ganz auf ein Abomodell (Gamepass bspw.).

Aufgrund meiner "Piles of Shame" bei Steam, GoG, u.a. lohnen sich Konsolen per se auch nicht bzw. kann ich diese fuer mich nicht wirklich rechtfertigen, weil ich eben schon ausreichend mit PC Spielen eingedeckt bin und dann doch eher auf Nachhaltigkeit bedacht bin, und da ich bspw. Exklusivspielpolitik auch zu einem gewissen Grad ablehne, weil diese spaltet. Das mag fuer viele andere ebenso gelten und anderen mag das egal sein.

Mit Abos besitzt man im Endeffekt aber gar keine Games/Software mehr und macht sich komplett vom Preismodell und Anbieter abhaengig (aehnlich wie bei Streamingabos von Netflix, Amazon Prime, Disney+ bspw.) und das laeuft dann im Endeffekt darauf hinaus, dass es irgendwann nur noch teures/limitiertes Cloud-Streaming/-Gaming geben wird und man gar keine Eigentumsrechte mehr hat bzw. diese komplett mit den eigenen Daten zusammen abtritt evt. noch zzgl. Zwangswerbung dann in diesen Serviceangeboten, was ja auch nicht wirklich im eigenen Interesse liegen kann ;).

Ich kaufe schon seit Jahren keine GPUs mehr (das letzte war meine R7 4800 APU im Notebook, eine dGPU kommt da fuer mich nicht in Frage, weil komplett unnoetig), auch weil ich viele Produkte bezogen auf beide Entwickler nicht rund genug fand (preis-leistungstechnisch) und zu wenig Zeit gehabt haette diese auch in ausreichendem/fuer mich lohnenden Unfang zu nutzen.
Allerdings besteht da jetzt schon dringenderer Bedarf und UHD muss auch nicht unbedingt sein, vor allen Dingen nicht bei diesen exorbitanten Preisen und dem geringen Mehrwert (gemessen an Spielspasserhoehung insgesamt).

Allerdings sind bizzarrer Weise die UHD-GPU Angebote bei Oberklassenkarten bzgl. des UVP momentan auch nicht wirklich so ueberzogen im Vergleich zu denen der Einsteigerkarten, wie ich finde. WQHD werde ich mir sparen, also entweder bei Full-HD bleiben oder gleich bei UHD einsteigen, aber das geben Markt und Verfuegbarkeit ja leider nicht her, dass das in einem preislich noch sinnvollen/akzeptablen Maße momentan gegeben ist ... hoffen auf das Ende naechsten Jahres (und Ende naechsten Jahres heisst es dann Sommer 2023, usw.)?

Ergo, wuerde ich wohl auch ein Jahr nach Erscheinen einer RTX 3060 dann wohl erst zugreifen - auch wenn ich urspruenglich eigentlich nicht vorhatte wieder bei nVidia zu landen - wenn es eine solche zwischen 350 und 400 Euro geben wuerde, aber ich hege immer noch Zweifel, ob das Anfang des kommenden Jahres auch passieren wird oder Intel etwas passendes in dem Preisbereich bieten wird koennen, bei AMD/RTG sehe ich eher schwarz, wenn ich mir die RX 6600XT Ausstattung und Preispolitik anschaue und fuer eine RX 6600 oder RX 6500XT ist wohl aehnliches zu erwarten (zumal weniger als 8GB Speicher auch nur noch schwer zu rechtfertigen sind), so diese denn kommen werden.
 
Zuletzt bearbeitet:
elmex201 schrieb:
Man muss nicht gleich Korinthen kacken.
Das sind Fakten die du nicht wahrhaben willst, wenn man dann nicht recht hat nennt man den anderen korinthenkacker deine übertriebene Aussage ist nunmal falsch.
und obwohl du eindeutig sehen kannst das die 6700XT der Konsole überlegen ist kommt sowas
elmex201 schrieb:
Schon von der Rohleistung ist eine Xbox Series X performanter als aktuelle "Midrange" Hardware.
es ist einfach nicht wahr
benchmark ff 14  shadow 57XTvs67XT.jpg
genauso wie
elmex201 schrieb:
Die Konsole ist langlebiger
Mein altes I7 4790 System konnte schon XB One und XB ONE X paroli bieten und tut dies auch bei der ONE Series X mit einer Graka die 479€ gekostet hat. Damit sind wir preislich sogar unter den 3 Konsolen von langlebig kann man da nicht reden und von nachhaltig will ich gar nicht erst anfangen. Ich hab nur 2 Grafikkarten gebraucht um da mitzuhalten.
elmex201 schrieb:
Nein hinkt der nicht! Der Kunde steht im Markt und kann sich entscheiden ob er für 700 Euro eine Midrange-Karte holt oder eben für 500 Euro eine Next-Gen-Konsole.
Kann er eben nicht. Gleiche Leistung bedeutet eine 3060 für 599€ oder ne XBOX series X für 669€ gegenüber stellen aber nicht die Box UVP gegen ne wesentlich stärkere Karte mit Marktpreis.

elmex201 schrieb:
Hier im Forum ist herrscht eine völlig verzerrte Wahrnehmung der Realität.
In deinem Glashaus anscheinend auch.

Aber egal das Wetter ist zu schön, ich gönn mir lieber mal ein Eis. ciao ciao
 
  • Gefällt mir
Reaktionen: ETI1120
Herrlich wie alle in der Vergangenheit unterwegs sind und sich über die heutigen Preise ausheulen. Vllt googelt der ein oder andere die Begriffe Inflation und Angebot und Nachfrage.
 
catch 22 schrieb:
zusammen mit Einführung von HPF beziehungsweise DPF... also... Hours per Frame oder Days per Frame...
Lustiger Kommentar
nein eben nicht, heutige Rechner sind 50 millionen mal schneller als die von 1970 (oder so), also auch 50 millionen mehr details/Rays pro Sekunde etc. idealerweise ohne Anpassungen an der eigentlichen Software.
Natürlich sind GPUs Berechnungskrücken (da nicht 100% turingcomplete), ISA wurden erweitert etc.
Aber die Prinzipien sind die gleichen statt endlos vielen und noch mehr Hacks für Rasterizer, welche schlecht oder garnicht nachgerüstet werden können.
Ein idealer Unbiased Pathtracer benötigt vielleicht mal höhere Einstellungen oder mal eine Neukompilierung wegen neuer ISA etc. Mehr nicht. Keine endlosen Hacks.

Es gibt Echtzeit Raytracing schon vor NVidia und viele anderen lustigen Firmchen.
http://www.realtimerendering.com/resources/RTNews/demos/overview.htm
Ich habe mich vor NVIdia's hype für RTRT interessiert und auch paar RTRT progrämchen gebaut (für meinen alten Pentium 4 <3 ), [mein erster Post] ich weiß wovon ich rede.
Lustig dass ich NVidias RTX quasie damals schon gesehen habe, haha.
 
Zuletzt bearbeitet:
Quonux schrieb:
Es gibt Echtzeit Raytracing schon vor NVidia und viele anderen lustigen Firmchen.
Ist nicht wahr... und ich dachte ernsthaft, dass der Amiga 500, den mein Kumpel damals Anfang der 90er für die damals typischen Raytracing Bilder genutzt hat, wohl eine rtx von Nvidia hatte, um in etwa einer halben bis ganzen Woche mit höchstens 2 bis 3 Lichtquellen zu erzeugen...

Auch zur Jahrtausendwende sah es mit der Erzeugung von Raytracing Bildern nicht besser aus. Ja es, ging schon schneller, als zuvor bei meinem Kumpel auf seinem Amiga 500, allerdings nur wenn das Raytracing Bild weiterhin "einfach gestrickt" war. Selbst zur Jahrtausendwende brauchte so ein typisches kleines Raytracing Bild auf zeitgemäßer Hardware, die bei den Leuten zu Hause auf dem Tisch stand, immer noch locker ein halben Tag und mehr
 
catch 22 schrieb:
Ist nicht wahr... und ich dachte ernsthaft, dass der Amiga 500, den mein Kumpel damals Anfang der 90er für die damals typischen Raytracing Bilder genutzt hat, wohl eine rtx von Nvidia hatte, um in etwa einer halben bis ganzen Woche mit höchstens 2 bis 3 Lichtquellen zu erzeugen...

Auch zur Jahrtausendwende sah es mit der Erzeugung von Raytracing Bildern nicht besser aus. Ja es, ging schon schneller, als zuvor bei meinem Kumpel auf seinem Amiga 500, allerdings nur wenn das Raytracing Bild weiterhin "einfach gestrickt" war. Selbst zur Jahrtausendwende brauchte so ein typisches kleines Raytracing Bild auf zeitgemäßer Hardware, die bei den Leuten zu Hause auf dem Tisch stand, immer noch locker ein halben Tag und mehr
Ein Bild in Crysis braucht auch mehr als einen Tag zum berechnen auf älterer Hardware...
Was vor 20 Jahren ein Superrechner war wird heute für Spiele veschwendet...

Mein Punkt war dass Raytracing/Pathtracing praktisch Zeitlos ist, Rasterizer und die meisten lustigen Hacks werden verschwinden, eben weil es günstiger ist nur Raytracing zu unterstützen.
Nicht heute, nicht durch NVidia aber es wird so passieren, eben weil alle Hacks nur Hacks sind und nicht das Orginal ersetzen (können).
 
Optimus Heinz schrieb:
Und wer mir jetzt noch erzählen will die Preissteigerungen über alle Leistungsklassen hinweg (beide Hersteller) haben einen anderen primären Hintergrund als Gewinnmaximierung hat es auch nicht anders verdient und sollte in Zukunft doch bitte 999$ für eine solche FullHD Karte zahlen müssen, aus Gründen...
Ja, echt eine Sauerei, das die die Grafikkarten nicht verschenken.
 
katamaran3060 schrieb:
Das waren aber Einsteigerkarten zum Einsteigerpreis. Klar,die Leistung ist gestiegen. steht aber in keinem Verhältnis zum Preis.
Willkommen in der neuen Normalität !😆
 
Zurück
Oben