Mit einem 400mm² Chiphighwind01 schrieb:Polemischer Unsinn
Defacto ist die Karte von Leistung und Effizienz ziemlich auf RX 5700 XT Niveau - was immerhin die "Top Karte" des direkten Mitbewerbers der letzten Generation war
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Test Intel Arc A770 & A750 im Test: Intels schnellste Gaming-Grafikkarten analysiert
- Ersteller Jan
- Erstellt am
- Zum Test: Intel Arc A770 & A750 im Test: Intels schnellste Gaming-Grafikkarten analysiert
Rockstar85
Admiral Pro
- Registriert
- Sep. 2004
- Beiträge
- 8.916
Doch kam er, als HPC Karte.. Intels vorgehen erinnert frappierend bei ARC an Navi, bzw eben die Berüchtigte HD2900XT... Mit einer RDNA Lizenz hätte Intel vermutlich mehr machen können, selbst VLIW4 sollte besser Performen..BAR86 schrieb:Ich weiß nicht, warum Larrabee immer aufgeführt wird. Es bleibt ein Prototyp der aus guten Gründen nie das Licht der Welt erblickt hat.
Und wie du schon sagtest, mit einem 400mm² Chip.. Wenn Intel daran auch nur einen Dollar macht, fress ichn Besen.
Letzteres ist eigentlich Intels einzige Chance: die 20 Jahre Rückstand bei der Optimierung von DX7/8/9/10 und 11 Titel wird man nicht mehr aufholen, man kann nur alles ab jetzt ordentlich unterstützen und hoffen, dass die Leistung genug anwächst, dass man die alten Titel einfach mitschleift im Wrapper/EmulatorRockstar85 schrieb:Eine A750 für 250€ nehme ich auch..
Aber ich könnte sie nicht mal bei meiner Mutter einbauen, weil die Sims 2 gerne spielt.. Ich hab auch div DX9 Spiele im Portfolio.. Es ist wie Linus sagte: Es fühlt sich an, als verkauft Intel eine CPU Generation nur für Windows 12...
Selbst wenn man gute Leute hat, braucht man ein eingespieltes Team und Erfahrung. Ich muss bei neuen Projektteams auch immer erst wissen WIE man am effizientesten zusammenarbeitet, welche (neuen) Fehler gemacht werden usw.Rockstar85 schrieb:Und wegen andere Architektur. Man hat Kuduri, der alles andere als Schlecht ist, Chris Hook und andere ehemalige AMD/ATIler waren auch dabei.. Ich glaube mitnichten, dass es an der Arch liegt, es liegt in den Grundfesten von Intel und der Unternehmensstruktur..
man ist halt auch deutlich zu spät. Ich hoffe man bleibt dran. Die durchschnittlichen GPU Preise ermöglichen es wenigstens, dass Intel selbst bei "wenigen Millionen" Verkäufen dank OEMs und Co wohl ein bisschen Umsatz macht. Grafikchipentwicklung dauert mitunter 5 Jahre (etwas länger wenn die Arch neu ist, das Team neu ist usw).Rockstar85 schrieb:Mehr als 2 Gens für Spieler sehe ich aber nicht kommen, wenn selbst die Boardpartner so still sind.. Dagegen war FM2 noch gut beworben.
Das heißt, das was wir heute lernen wird man erst in 4-5 Jahren sehen.
Rockstar85
Admiral Pro
- Registriert
- Sep. 2004
- Beiträge
- 8.916
In 10 Jahren wird es wie bei AtomX86 heißen..BAR86 schrieb:man ist halt auch deutlich zu spät. Ich hoffe man bleibt dran. Die durchschnittlichen GPU Preise ermöglichen es wenigstens, dass Intel selbst bei "wenigen Millionen" Verkäufen dank OEMs und Co wohl ein bisschen Umsatz macht. Grafikchipentwicklung dauert mitunter 5 Jahre (etwas länger wenn die Arch neu ist, das Team neu ist usw).
Das heißt, das was wir heute lernen wird man erst in 4-5 Jahren sehen.
Milliarden Verluste für Intel
Und wegen der Teams haste Recht, aber ich glaube da liegt das Grundproblem.. Man arbeitet nebenher und nicht miteinander... Nun durfte es halt wieder das iGPU Team richten... Das ist Wahnsinn und das Spricht Bände gegen eine gute Treiberkultur bei Intel. Da braucht es eine 180 Grad Wende.
Und bei 400mm² aus TSMC Hand wird Intel mit glück die Herstellungskosten schaffen.. Umsatz? wohl kaum.
Nein, was kam war nicht mehr Larrabee, wir hatten die Phi, die hatte keinen Grafikkern, wenngleich natürlich Designideen immer noch drin steckten (viele kleine x86 Cores). Aber mit einer Grafikkarte hatte es nichts mehr zu tun.Rockstar85 schrieb:Doch kam er, als HPC Karte.. Intels vorgehen erinnert frappierend bei ARC an Navi, bzw eben die Berüchtigte HD2900XT... Mit einer RDNA Lizenz hätte Intel vermutlich mehr machen können, selbst VLIW4 sollte besser Performen..
Macht man nicht, war aber niemals Ziel der ersten Generation.Rockstar85 schrieb:Und wie du schon sagtest, mit einem 400mm² Chip.. Wenn Intel daran auch nur einen Dollar macht, fress ichn Besen.
Ich gehe davon aus, dass Intel selbst es erst mit der "C" Generation richtig angehen wird. Alles andere ist Erfahrung sammeln. Was sich ein kleines Unternehmen nicht leisten könnte. Aber Intel entwickelt die Arch ja nicht nur für Gamer, auch im HPC Bereich und Co kann man die dann "fallen lassen" und somt mit einem Schlag mehrere Märkte bedienen. Sofern die Konzernleitung meint, dass man sich irgendwo Geld holen kann, wird man wohl weiter investieren. Das ist jetzt mal der Anfang, sehen wir in 2-3 Jahren nochmal nach.
Intel muss letztlich nicht Highend werden in den nächsten 5 Jahren, es reicht, wenn man den 150-450€ Markt betritt. Der ist groß. Und dazu brauchts hauptsächlich Treiber.
- Registriert
- Aug. 2018
- Beiträge
- 2.757
Was für eine Katastrophe. Damit unterbietet Intel die ohnehin niedrigen Erwartungen nochmal.
Klar, mit der miesen Leistung war so zu rechnen, das kann man über den Preis regeln.
Und die Treiber werden hoffentlich irgendwann mal brauchbar sein, ist halt ne Wette auf die Entwickler bei Intel für uns Käufer.
Aber der Verbrauch? Schon unter Last ist der schwer zu ertragen, Idle ist so schlicht nicht akzeptabel. SOWAS darf man eigentlich in 2022 nicht mehr auf den Markt bringen.
Intel hätte sich selbst einen Gefallen getan wenn sie den Ramsch rechtzeitig abgebrochen und es als ersten Versuch in den Archiven verschwinden gelassen hätten um sich voll und ganz auf den Nachfolger zu konzentrieren. Das hier ist doch peinlich und wird Intel ewig nachhängen. Wenn sich der Markt so weiterentwickelt und die Karten eher beim Händler liegen bleiben als wie noch vor 2 Jahren allen aus der Hand gerissen zu werden, die Käufer also die freie Wahl haben, wird Intels Ruf doch noch in 2-3 Generationen unter diesem Fiasko leiden.
Klar, mit der miesen Leistung war so zu rechnen, das kann man über den Preis regeln.
Und die Treiber werden hoffentlich irgendwann mal brauchbar sein, ist halt ne Wette auf die Entwickler bei Intel für uns Käufer.
Aber der Verbrauch? Schon unter Last ist der schwer zu ertragen, Idle ist so schlicht nicht akzeptabel. SOWAS darf man eigentlich in 2022 nicht mehr auf den Markt bringen.
Intel hätte sich selbst einen Gefallen getan wenn sie den Ramsch rechtzeitig abgebrochen und es als ersten Versuch in den Archiven verschwinden gelassen hätten um sich voll und ganz auf den Nachfolger zu konzentrieren. Das hier ist doch peinlich und wird Intel ewig nachhängen. Wenn sich der Markt so weiterentwickelt und die Karten eher beim Händler liegen bleiben als wie noch vor 2 Jahren allen aus der Hand gerissen zu werden, die Käufer also die freie Wahl haben, wird Intels Ruf doch noch in 2-3 Generationen unter diesem Fiasko leiden.
Rockstar85
Admiral Pro
- Registriert
- Sep. 2004
- Beiträge
- 8.916
@BAR86
Phi ist den Grundlagen ein Larrabee.. Und ja , das Ding war ein Klopper und ich hätte noch gerne einen für die Vitrine.. Aber selbst abseits der Spiele ist ARC nicht wirklich gut, sondern nur Okay.. die bessere 1440p Leistung kommt aber auch vom breiteren SI...
Und die Platinen und Boradqualität sagt mir zu.. Das ist schon fast auf AMD Niveau.. Mal schauen wie die Teardowns aussehen, aber die GPU wird Fett sein.
Phi ist den Grundlagen ein Larrabee.. Und ja , das Ding war ein Klopper und ich hätte noch gerne einen für die Vitrine.. Aber selbst abseits der Spiele ist ARC nicht wirklich gut, sondern nur Okay.. die bessere 1440p Leistung kommt aber auch vom breiteren SI...
Und die Platinen und Boradqualität sagt mir zu.. Das ist schon fast auf AMD Niveau.. Mal schauen wie die Teardowns aussehen, aber die GPU wird Fett sein.
Ganz genau. Highwind vergleicht 408mm2 N6 mit einem 251mm^2 N7 chip von 2019!BAR86 schrieb:Mit einem 400mm² Chip
Cyberskunk77
Lieutenant
- Registriert
- Okt. 2019
- Beiträge
- 579
BAR86 schrieb:Hat bei ATI/AMD aber auch viele Jahre gedauert und man kann nur hoffen, dass Intel es auch ernsthaft versucht und dran bleibt.
Intel ist stand heute keine Alternative im Massenmarkt, höchstens für experimentier und Leidensfreudige.
Nächstes Jahr auch noch nicht.
Ich würde sagen frühestens im Jahr 2025, eher 2026 (wenn man aus den aktuellen Fehlern gelernt hat, neuen Prozess benutzt, nicht mehr deutlich zu spät dran ist usw) kann man als "Hardcore" Spieler zugreifen.
Dem stimme ich vollumfänglich zu. Ein Schnellschuss wird das definitiv nicht. Vielleicht sind bis dahin dann
auch bessere Treiber entwickelt worden, mit denen jeder Durchschnitts-User klar kommt.
Fairerweise muss man hier anmerken:Rockstar85 schrieb:In 10 Jahren wird es wie bei AtomX86 heißen..
Milliarden Verluste für Intel
Und wegen der Teams haste Recht, aber ich glaube da liegt das Grundproblem.. Man arbeitet nebenher und nicht miteinander... Nun durfte es halt wieder das iGPU Team richten... Das ist Wahnsinn und das Spricht Bände gegen eine gute Treiberkultur bei Intel. Da braucht es eine 180 Grad Wende.
Und bei 400mm² aus TSMC Hand wird Intel mit glück die Herstellungskosten schaffen.. Umsatz? wohl kaum.
1. Atom hat am Beginn Verluste gemacht, vor allem aber der "Stunt" sich in die Handysparte zu quetschen und die Chips zu verschenken. Inzwischen macht man gutes Geld damit, die weiterentwickelte Architektur hat inzwischen Skylake IPC und steckt im Alder/Raptor Lake
2. 400mm² sind groß aber nicht SO teuer. Vermutlich irgendwo bei 70$ bei TSMC. Es ist ja ein verbesesrter 7nm Prozess, nicht der neueste, teuerste, sondern ein ausgereifter. Wenn Intel tatsächlich mal hohe Marktanteile besitzt wirds sowieso günstiger selbst zu produzieren. Das macht man also ganz bewusst nicht um die eigenen Kapazitäten nicht für sowas zu verschwenden
Die Ergebnisse sind ziemlich gemischt. Von enttaeuschend bis nicht schlecht, da ist alles dabei. Aber erwartete Ernuechterung ueberwiegt. Da muss wohl nur Resizable Bar fehlen und schon wird das Ergebnis nochmal deutlich schlechter. Intel ist doch sonst immer bei der Roadmap praesent. Ich frage mich: Wo bleibt sie.?
Rockstar85
Admiral Pro
- Registriert
- Sep. 2004
- Beiträge
- 8.916
Es ging nur um die Handysparte.. Ich glaube die Atom im Desktop waren nie Defizitär.. Ich würde am liebsten ja die E Core als Atoms sehen, aber das wird wohl nicht passieren.BAR86 schrieb:Fairerweise muss man hier anmerken:
1. Atom hat am Beginn Verluste gemacht, vor allem aber der "Stunt" sich in die Handysparte zu quetschen und die Chips zu verschenken.
70 USD könnte hinkommen, ich denke mit der Preiserhöhung aus 2021 wird Intel auch nicht mehr als 80 USD bezahlen. Speicher dürfte auch bezahlbar sein, egal ob 16 oder 8 GB.. ist ja kein GDDRX ^^
Aber wir haben Millionen in R&D, Gehälter, Layouting, Herstellung etc. Rechne mal Konservativ ~200 USD pro GPU (Inkludiert ist alles was da oben steht).. Das wäre der Break Even Point.. Und da ist Intel verdammt dicht dran. Damit verdienen aber weder die ODM was, noch Intel.
T
Tiara G.
Gast
Danke für den tollen Test.
Ausreichend, mehr kann man diesen Karten nicht zugestehen. Knapp 3060 Niveau, also mehr als ne 3060 dürfen die im Laden dann nicht kosten, sonst kauft das keiner.
Ausreichend, mehr kann man diesen Karten nicht zugestehen. Knapp 3060 Niveau, also mehr als ne 3060 dürfen die im Laden dann nicht kosten, sonst kauft das keiner.
ja, ist ein bisschen wie Vega vs Pascal. Da war die 500m² Vega mit kleinem, schnellen SI langsamer als die 300mm² Pascal (Geforce 1080), weniger Effizient usw. Also passierte das auch AMD trotz ihrer Erfahrung, die hatten halt aber keine solchen Treiberprobleme, weil sie natürlich schon gute Treiber hatten und den Herstellersupport/die Industriekontatke etc. Das muss Intel erst aufbauen.kramko schrieb:Ganz genau. Highwind vergleicht 408mm2 N6 mit einem 251mm^2 N7 chip von 2019!
Man sieht, der Chip/die Architektur hat noch deutlich Luft nach oben, man muss "entschlacken". Das geht nur über Jahrelanges überarbeiten. Es zeigt sich halt, dass es ein erster Entwurf ist.
Die Leistung finde ich für das Low und Midrange End durchaus passabel, aber GPUs sind jeweils bis zu 50-90 Euro zu teuer für das Segment, das sie attackieren wollen.
Anders ausgedrückt: Auch Intel beweist, dass es anscheinend nicht mehr im Ansatz machbar ist, den Einstieg in die untersten Midrange GPU Segmente bei 200 bis 250 Euro zu ermöglichen.
Anders ausgedrückt: Auch Intel beweist, dass es anscheinend nicht mehr im Ansatz machbar ist, den Einstieg in die untersten Midrange GPU Segmente bei 200 bis 250 Euro zu ermöglichen.
Okay die Leistung, spielt im erwarten Rahmen der RTX 3060, der Leerlaufverbrauch ist das einzige echte KO Kriterium in meinen AUgen CS GO Spiele ich nicht und der Rest könnte sich entwickeln, da aber keiner weiß wie speziell/aufwendig die Treiberanpassung an die Spiele und Architektur ist, und keien weiß wieviel Energie Intel da noch reinsteckt wäre es mir Prvat zu heiß, auch ist mir der Kostenvorteil bei weitem nicht groß genug. ABer schön das die Konkurrenz zum Duopol langsam steht hoffentlich bleibt es so.
Die E-Cores sind die aktuellen Atom-CoresRockstar85 schrieb:Es ging nur um die Handysparte.. Ich glaube die Atom im Desktop waren nie Defizitär.. Ich würde am liebsten ja die E Core als Atoms sehen, aber das wird wohl nicht passieren.
Genau, ja. Und bei den geringen Stückzahlen ist es für Intel sicher egal ob man nun zu viel oder zu wenig zahlt, der größte Brocken war eh Forschung und Entwicklung, da gehts um Milliarden:Rockstar85 schrieb:70 USD könnte hinkommen, ich denke mit der Preiserhöhung aus 2021 wird Intel auch nicht mehr als 80 USD bezahlen. Speicher dürfte auch bezahlbar sein, egal ob 16 oder 8 GB.. ist ja kein GDDRX ^^
Völlig richtig. Ich würde einfach davon ausgehen, dass Intel nicht plant Gewinn zu machen mit Arc und BattlemageRockstar85 schrieb:Aber wir haben Millionen in R&D, Gehälter, Layouting, Herstellung etc. Rechne mal Konservativ ~200 USD pro GPU (Inkludiert ist alles was da oben steht).. Das wäre der Break Even Point.. Und da ist Intel verdammt dicht dran. Damit verdienen aber weder die ODM was, noch Intel.
Ergänzung ()
Das war bis vor wenigen Jahren aber bei den anderen beiden Herstellern nicht anders (ist teilweise immer noch horrend, wenn man einen 2. Bildschirm anhängt oder einen mit hoher Frequenz). Man findet natürlich ziemlich viele Haare in dieser Suppe, das stimmt. Aber fast alles ist auch den anderen passiert. Mit genug Zeit und Manpower würde man das in wenigen Jahren behoben haben.thenebu schrieb:47 zu 5 Watt in Idle….
Intel hat den Knall nicht gehört !
Ergänzung ()
Wobei andere Magazine (PCGH) deutlich über der 3060 rauskommen. Liegt wohl am Testparcour?Tiara G. schrieb:Ausreichend, mehr kann man diesen Karten nicht zugestehen. Knapp 3060 Niveau, also mehr als ne 3060 dürfen die im Laden dann nicht kosten, sonst kauft das keiner.
Die Geforce RTX 3090 Ti bleibt bis zum Release der RTX 4090 am 12. Oktober die 100-Prozent-Messlatte. Intels beste Gaming-Grafikkarte erreicht im Verhältnis den Wert von 48,5 Prozentpunkten und schiebt sich damit hauchdünn vor Nvidias drei Jahre alte Geforce RTX 2070 Super. Sowohl die Geforce RTX 3060 als auch die Radeon RX 66x0 XT werden deutlich distanziert - Mission erfüllt, Intel!
Quelle: https://www.pcgameshardware.de/Inte...A750-Test-Benchmarks-Preis-Release-1404382/3/
- Registriert
- Sep. 2018
- Beiträge
- 3.489
Wahrlich eine beschönigend euphemistische Formulierung.Ironbutt schrieb:Uff der Stromverbrauch im Idle ist unschön.
Das ist für mein Interesse tatsächlich der Knockout. Obwohl ich mir eigentlich nicht vorstellen kann, dass das ein reines GPU-Thema ist. Aber Intel hat die Messwerte ja bestätigt - ohne Verweis auf ausstehende Optimierungen per Software. Ich finde das sprichwörtlich unglaublich. 😲
Ähnliche Themen
- Antworten
- 204
- Aufrufe
- 31.396
- Antworten
- 64
- Aufrufe
- 13.618
- Antworten
- 5
- Aufrufe
- 2.457
- Antworten
- 168
- Aufrufe
- 29.657
- Antworten
- 151
- Aufrufe
- 16.775