VR - Es tut sich was - News und Diskussionen

  • Allerdings finde ich für Endverbraucher 1400+ EUR für eine Karte durchaus heftig. Zu heftig, um ehrlich zu sein. Und beim Strombedarf hört es dann wirklich auf. Ich kauf mir doch jetzt nicht noch ein Kleinkraftwerk :)

    Du bist dir aber schon bewusst, dass das nicht der typische "Endverbraucher" ist? Wir reden hier über das Beste vom Besten am Consumer-Grafikkartenmarkt.


    Diese Karten repräsentieren die obersten 1-2% bei der PC-Ausstattung.


    Ein 75' OLED TV kostet eben auch keine 450€ und der AMG in der Garage halt auch keine 20k.

  • Stromverbrauch und Lautstärke (unter Hochlast) sind schon bei der 2080Ti kaum noch akzeptabel. Neue Grafikkarten müssen wieder sparsamer werden. Der Weg den NVIDIA hier geht ist ein falscher und vermittelt den Eindruck das es mit Leistungssteigerungen auf diese Weise nicht mehr weiter geht.

    Wenn man sich die neuen kabellosen Brillen(Quest Picco) anschaut fragt man sich schon ob sich hier nicht eine ganz andere Zukunft anbahnt??

    Ja sie sind wohl noch nicht wirklich auf der Leistungsstufe, dafür arbeiten sie mit einem Handyprozessor und kommen mit einem 200g schweren Akku zurecht! Das ist eigentlich total krass :think:

  • Stahlkopp Als ich vor ca. 3 Jahren am Black Friday 2017 meine Asus Strix GTX 1080 OC kaufte war die im Consumermarkt das Beste was man kaufen konnte und zwar zu einem Preis von 509,15€ (Normalpreis 729€, für Black Friday auf 599€ im Angebot abzgl. 15% Ebayrabatt). Ich frage mich was es den für eine Begründung gibt die nächste Generation mal direkt über 1000€ kosten zu lassen... außer natürlich Geldgier!

  • Stahlkopp Als ich vor ca. 3 Jahren am Black Friday 2017 meine Asus Strix GTX 1080 OC kaufte war die im Consumermarkt das Beste was man kaufen konnte und zwar zu einem Preis von 509,15€ (Normalpreis 729€, für Black Friday auf 599€ im Angebot abzgl. 15% Ebayrabatt). Ich frage mich was es den für eine Begründung gibt die nächste Generation mal direkt über 1000€ kosten zu lassen... außer natürlich Geldgier!

    Keine Konkurrenz.


    Angebot und Nachfrage - und auch das wird von AMD genauso gemacht. Die werden den Preis Ihrer GraKas genau am P/L-Verhältnis von Nvidia ausrichten, weil sie halt auch mal Kohle machen wollen. Deswegen wirds auch keine der erhofften Schnäppchen von AMD geben.

  • Keine Konkurrenz.


    Angebot und Nachfrage - und auch das wird von AMD genauso gemacht. Die werden den Preis Ihrer GraKas genau am P/L-Verhältnis von Nvidia ausrichten, weil sie halt auch mal Kohle machen wollen. Deswegen wirds auch keine der erhofften Schnäppchen von AMD geben.

    Genau, keine Konkurrenz!!! Das halte ich persönlich für sehr unseriös, aber das ist natürlich Ansichtssache und deshalb hoffe ich das AMD als Konkurrent richtig Dampf macht! Das muß nicht im High-End-Bereich sein, sondern grundsätzlich. Im Übrigen hat AMD immer gezeigt, das es günstiger geht und ich glaube nicht das die auf den NVIDIA-Geldgier-Zug aufspringen, zumal da auch noch Intel mit High-END-Grafikkarten für Gamer mitmischen will, die ja auch im Prinzip Ihre marktbeherrschende Position im CPU-Bereich, die ganzen Jahre ausgenutzt haben.


    Ich freue mich zukünftig auf schnellere Releases von immer leistungsfähigeren Karten, basierend auf neuen Fertigungskonzepten. Das wird uns diese neue Konkurrenz-Konstellation auf dem Grafikkartenmarkt bescheren... ;)

  • Konkurrenz belebt das Geschäft, da bin ich ganz bei Dir!


    Nur Hoffnungen auf massive Konkurrenz aus dem Hause AMD und INTEL im Bereich der Top-GraKas mache ich mir nicht. Ich denke auch, dass da für alle Firmen ganz einfach zu wenig zu holen ist. Denn obwohl die Preise saftig sind ist das Absatzvolumen wohl eher klein. Entsprechend ist ein 2080Ti-Niveau wohl eher der finanzielle sweet spot für AMD.

  • • Dass die Enthusiasten-GraKas von nvida Nischenprodukte sind, ist allgemein bekannt. Man siehe sich dazu die Statistiken von Mindfactory an. Für nvidia sind es nur Prestige-Produkte für die Rumbalotte*. Den Umsatz und Gewinn machen sie im Midrange-Bereich. Das ist alles nicht neu und auch nicht nvidia-spezifisch. In vielen Branchen ist das exakt so.

    • nvidia Geldgier vorzuwerfen, finde ich albern. Das ist ein Wirtschaftsunternehmen, die MÜSSEN kräftige Gewinne einfahren. In den guten Zeiten muss man sich als Firma fettfressen, um für schlechte Zeiten gewappnet zu sein. Alle Wirtschaftsunternehmen müssen so handeln, das gebietet die Vernunft.

    • Zu hoffen, dass AMD und Intel auch nur ansatzweise in die Nähe von nvidia kommen könnten, ist Träumerei. Seht Euch einmal an, was nvidia so im Hochleistungsbereich auf die Beine stellt (wovon wir Endnutzer kaum was mitbekommen). Da sind die Enthusiasten-GraKas nette Abfallprodukte. Intel hat dagegen eine ganz andere Ausrichtung. Das Hauptgeschäftsinteresse liegt bei Intel nicht in den Desktop-Prozessoren und den Grafikkarten. Das lesitet sich Intel mehr so als Hobby. Nötig haben die das nicht. Und AMD? Ehrlich jetzt?

    • Als VR-Nerd mit einer Vive Pro brauche ich die schnellste GraKa, die es gibt. Also kaufte ich mir für 1.700 € eine Gigabyte Arous 2080Ti OC WaKü. Leise, kalt, pervers schnell. Und? Habe ich es je bereut? Nein. Ich freue mich jeden Tag über das Teil, wenn ich die VR in Betrieb nehme. Leistung kostet eben nun einmal Geld. Das ist in jeder Branche so.


    *Rumbalotte → uralter unanständiger Witz über Penislängenvergleiche.

  • Nun bleibt am Ende noch die Hoffnung, dass es die Schwester richten wird, wenn der Bruder versagt. Meine 5G. Wenn es wirklich so schnell ist, dann streamen wir in Zukunft nur noch alles. Zahlen für den Dienst, dafür, dass die Betreiber besagte HighTech stehen haben und müssen uns selbst nicht mehr mit 1K Netzteilen und 1K teuren Karten rumärgern.


    Und unterstellt man, dass die hierzu benötigte Hardware vielleicht auch in eine Kabellose VR-Brille passt, wird es spannend für Nvidia. Denn wer kauft dann noch teure Hardware, wenn er im Abo analog Sky oder Netflix den Dreck auch auf den Monitor oder Brille streamen kann? Und zwar egal wo, solange es 5G gibt.

  • Ach, Nvidia hat längst vorgesorgt falls es im GraKa-Geschäft nicht mehr so dolle Gewinne geben sollte... Stichwort Deep Learning, Autonomes Fahren, usw. Es gibt vermutlich auf der Welt kein Unternehmen - und keine Regierung - die mehr da rein investiert als Nvidia.

  • Wenn ich die ganzen Lobgesänge auf NVIDIA zusammenaddiere, sind es genau die gleichen Sprüche wie vor ein paar Jahren mit den Intel CPUs vs AMD Ryzen... :lol::lol::lol: Eigentlich sind es immer wieder die gleichen Argumentationen weshalb das so ist; Weil es eben so ist bzw. sein wird, wie sollte es auch anders sein... :lol:


    Bevor ich da irgendeinen Müll schreibe warte ich lieber ab und schau mir mal an was die Neuen/Alten und die Neuen in dieser Branche im angekündigten Zeitrahmen so alles anbieten werden. Wenn ich dann die ersten Tests gelesen habe kaufe ich und ich hoffe ich werde keine NVIDIA kaufen müssen... aus Prinzip natürlich... ;)

  • Ach, Nvidia hat längst vorgesorgt falls es im GraKa-Geschäft nicht mehr so dolle Gewinne geben sollte... Stichwort Deep Learning, Autonomes Fahren, usw. Es gibt vermutlich auf der Welt kein Unternehmen - und keine Regierung - die mehr da rein investiert als Nvidia.

    In der Tat. nVidia DRIVE ist wohl das kommende System bei einigen der großen Hersteller, u.a. Daimler, Audi, VW, Toyota oder auch Volvo. Daimler hatte erst vor kurzem die Partnerschaft in dem Bereich besiegelt und wird ab 2024 jedes Fahrzeug mit nVIDA DRIVE ausstatten. Bei Daimler's MBUX ist nVidia bereits mit an Bord. nVidia DRIVE ist (leider) weit mehr als nur ein Assistenzpaket, dahinter sitzt u.a. eben auch eine Cloud, über die man kostenpflichtige (Zusatz)funktionen für das Auto abonnieren kann oder vielleicht sogar muß. Updates kommen kontinuierlich per 5G rein. Datenschutztechnisch ein weiterer Albtraum, aber das ist ja den meisten Leuten heutzutage eh scheißegal.


    Ich denke mal, daß beim Thema Autonomes Fahren kaum ein Weg an nVidia vorbeiführt.

  • Um nochmal auf die 3090 ti von Nvidia zurück zu kommen.

    Das Teil soll ja noch größer und noch breiter als die 2080TI werden.

    Da werden einige Probleme in ihrem Gehäuse bekommen.

    Abgesehen von den exorbitanten Stomverbräuchen die da wohl kommen werden.

    350 bis teilweise 500Watt wird gemunkelt.

    Und Hitzeprobleme. Puh. Auch noch.

    Aber wo soll die Leistung den auch her kommen.

    Leistung kommt durch Strom. Mehr Leistung durch mehr Strom. Und noch mehr Leistung durch noch mehr Strom.

    Ist halt so.

    Und viel viel Leistung/Strom produziert halt viel Abwärme die irgendwo hin muss.

    Also fassen wir zusammen:


    Viel Leistung, viel Abwärme, viel Groß, viel Geld!


    Wer das dann kaufen will lässt sich von dem Preis und den Gegebenheiten ( neues Gehäuse, neues Netzteil...) eh nicht abschrecken.


    :sm25:

    n3FAUOV.png

    RoA Discord. Traut euch!


    * Minenleger in Ausbildung

    * Die Mehrzahl von RoA schreibt man ohne "s" Ihr Nappels

    * Wir sind die Besten!!!

    * Die Hilde ist ne Wilde!

    * Nur wer ohne Hose fliegt ist ein wahrer Mann

  • Konkurrenz belebt das Geschäft, bringt 'oft' neue Technologien und senkt evtl. die Preise. Das ist schon richtig.

    Aber: Was AMD beim CPU Geschäft geschafft hat, scheint bei den GPUs nicht so recht zu gelingen. Bisher war es halt definitiv so. Zwar wiesen die Radeon-GPUs meist eine höhere theoretische Rechenleistung in TFLOPS auf, konnten dies allerdings in der Realität von Spielen kaum auch in FPS umsetzen. Einzig einige DX12 Games hatten durch das bei AMD optimiertere async computed shading Vorteile gegenüber Nvidia aufzuweisen. Das ging dann vermutlich bei Hitzeentwicklung und Lautstärke der Lüfter unter.... Nvidia hatte hier einfach die effizienteren Chips.

    Als nun AMD letztes Jahr mit TMSCs 7nm aufholen versuchte, kombinierte AMD es mit teurem HBM2 Speicher und versagte wieder.. eine krasse Fehlentscheidung. Der teure Speicher vermasselte AMD jeglichen Profit. Und bei der Leistung war man Nvidia immer noch nicht gewachsen...


    Und nun setzt AMD auf 7nm++ bei TMSC und Nvidia nimmt sich einfach den günstigeren 8nm Samsung-Prozess (ein optimierter 10nm Prozess) und wird vermutlich weiterhin locker an AMD vorbei ziehen. In der Leistung und im Herstellungspreis. Denn die 8nm werden bei Samsung einfach günstiger sein.


    Desweiteren hatte Nvidia mit seinen Tensor- und Raytracingkernen bereits in Turing weitere Innovationen eingebaut. Ob und wie AMD nun mit Big-Navi hier nachziehen wird, ist mir immer noch fraglich. AMDs BigNavi soll nur 2/3 der Chipfläche von Ampere aufweisen, was für mich eher auf keine dezidierte Hardware für KI/Raytracing hinweist, wenn die Gerüchte über diese Chipflächen stimmen.


    Für mich steht Nvidia als ein sehr innovatives und effizientes Unternehmen. AMD hat in den letzten Jahren immer nur versucht nachzuziehen und dabei noch Fehlentscheidungen gemacht (HBM-Speicher). Zudem kann Nvidia bei KI auf Synergien zurück greifen, welches andere wichtige Geschäftszweige von Nvidia aufgebaut haben.


    Nvidia ist auch immer noch vom einstigen Gründer Jen-Hsun Huang geleitet, während AMD 2006 das eigentliche Unternehmen ATI aufgekauft hat.

  • Das NVIDIA in mehreren Bereich tätig ist und vom Grafikkartenmarkt nicht abhängig sein wird ist sehr schön, aber hat letztendlich mit dem Thread-Thema recht wenig zu tun, sei's drum... hier mal ein kleiner Bericht wie das Geschäft mit High-End-Grafikkarten lief, als die Miner noch zugeschlagen haben. 1 Milliarde nur mit High-End-Grafikkarten für den Miningbereich, ist wohl nicht ganz so vernachläßigbar! ;)


    https://www.heise.de/newsticke…rypto-Mining-4724215.html


    Hier auch schön die Umsatzaufteilung von NVIDIA zu sehen...


    Nvidias Umsatz nach Marktsegmenten


    Quelle: https://www.computerbase.de/20…dia-umsatz-gewinn-ampere/

  • 350W maximum im Vollausbau. 320W bei der Version mit reduziertem/kleineren Speicher. Der Speicher schluckt halt entweder 30W (oder eben 60W bei doppelter Menge). Bei den 320W ist die Hälfte des Speichers bereits enthalten an elektrischer Leistung. Und 320W+30W = 350W. Die 3080 kommt ja auch mit 10GB und mit 20GB in zwei Versionen. Die 3070 wohl mit 8GB/16GB. Bei größerem Speicherausbau werden sich Speichermodule auch auf der schwerer zu kühlenden Rückseite der Platine befinden.


    Ich kann mir nicht vorstellen, dass die gezeigte 3090 über die Fullsizemaße einer Grafikkarte hinaus ragen wird (311mm L * H * triple-Slot B). Ansonsten wird man sogar in größeren Gehäusen Probleme bekommen. Die 2080 Founders Edition hat eine Länge von 266.7mm, ist also eher kleinerer Natur. Meine evga 1080ti ftw3 ist 299.7mm lang und damit schon wesentlich größer als die 2080/2080ti Founders Editions... Das relativiert das gezeigte Foto der 3090 vs. 2080 nochmals etwas. Und nebenbei wird es die 3090 neben der Founders Edition mit dem riesigen Vapour Chamber Kühler noch zeitgleich als Custommodelle mit sicherlich kleineren Kühlern geben. Ich werd das sowieso auf Wasserkühlung umbauen. Aphacool wird hoffentlich zeitnah den Eiswolf 2 für die Ampere Karten bringen. Nen extra Radiator hab ich gerade an meinen Mini-PC angedockt..


    Übrigens, wenn ich Netzteilrechner.de anwerfe und CPU, Board, Ram, ect.pp. konfiguriere und dann eine 2080ti wähle mit 50W als Puffer, soll ich ein 580W Netzteil installieren. Die etwa 100W Mehrleistung der 3090 kann man also mit 680W betreiben. Mein 750W SFX Netzteil sollte also locker reichen....

  • Tomski [BBfA] Wie immer wartest Du ja gerne ab .... Na dann warte mal ....;)

    Dir ist aber schon klar, dass Dein VR-Liebligsthema "forveated rendering" zur Zeit eine Graka von NVIDIA zwingend voraussetzt?

    Richtig ich warte auf Besseres, da ich Normales schon habe (O+, CV1 und ne GTX 1080 OC) und die Wartezeit ist auch begründet, da die Markteinführung neuer Hardware von AMD und Intel in absehbarer Zeit (AMD = Q4/20 und Intel = Q1/21) bevorsteht. Solange muß ich mit meiner 1080er noch klar kommen. Wobei RTX auch von Intel und anscheinend auch von AMD in der neuen Grafikkartengeneration verfügbar sein soll. Ob natürlich foveated Rendering von diesen Treibern unterstützt wird, das ist natürlich nicht sicher und ein gutes Argument von Dir Grex Rildo ...


    Was ich alleredings nicht ganz verstehe ist warum ihr so versessen auf NVIDIA seid und nichts anderes gelten lasst. Ich habe nichts gegen NVIDIA Grafikkarten und wende sie sogar an, ich bin nur mit der Preispolitik nicht einverstanden und versuche deshalb andere Hersteller zu kaufen, wenn in etwa Gleichwertiges verfügbar ist... und natürlich nicht zu vergessen gönne ich es denen noch wenn sie ordentlich Marktanteile verlieren. Das alles kommt nur uns Gamern/Verbrauchern zugute...