KodiaK, ok sunt dispus sa accept nivelul de performanta si consum (tweakuit sau nu), dar de unde pana mea au scos nivelurile alea de pret? Repet, cine si pentru ce cumpara asa ceva?Your guess is as good as mine :) Poate pretul de productie si R&D a fost foarte mare sau poate AMD-ul a fost ultra increzator in produsul lor; nu cred ca vom stii vreodata.
Usor dar sigur GTX 1080ti o sa ramana in urma lui RX VEGA LC, RX 580 e cam aproape de GTX 1070ti - http://www.pcgameshardware.de/Forza-Horizon-4-Spiel-61748/Specials/Forza-Horizon-4-Technik-Test-Benchmarks-1265758/Posibil, dar cam irelevant din pacate. Problema principala la Vega a fost raportul pret/performanta. AMD avea un atu clar, pretul mai mic decat concurenta, deci nu era neaparat rau daca si perf era sub concurenta la lansare. Erau sanse destul de mari ca peste 6-12 luni sa ajunga, sau chiar sa depaseasca concurenta. Dar la Vega 64 care naiba era motivatia sa dai banii de 1080Ti(sau poate chiar mai mult) pt perg de GTX 1080 (poate chiar un pic sub). Oricum daca aveai banii de 1080Ti era destul de clar ca atunci cand Vega ar fi ajuns sa fie peste 1080Ti, vei lua orium o placa din generatie mai noua.
what??
Idea era ca pe 7nm pot sa puna mai multe cores in cip, fata de 4096 cat au acuma.
Ce dreaq sa zică? Ca vor fi și la anul varza pe partea de Performance?Banuiesc ca nu mai ziceau nimic, taceau ca si pana acum, daca mergeau in continuare doar pe mainstream gpu's.
AMD CEO Lisa Su sugereaza ca in 2019 vor scoate pe piata placi video (pe tehnologia de 7nm) capabile sa concureze cu cele din zona de performanta superioara de la Nvidia...Atata doar ca 7nm la AMD este echivalent cu 10nm la Nvidia iar RX 590 12nm nu a reusit sa demonstreze nimic. TDP-ul continua sa fie mare si performantele sunt mici.
Ce dreaq sa zică? Ca vor fi și la anul varza pe partea de Performance?Banuiesc ca nu mai ziceau nimic, taceau ca si pana acum, daca mergeau in continuare doar pe mainstream gpu's.
AMD CEO Lisa Su sugereaza ca in 2019 vor scoate pe piata placi video (pe tehnologia de 7nm) capabile sa concureze cu cele din zona de performanta superioara de la Nvidia...Atata doar ca 7nm la AMD este echivalent cu 10nm la Nvidia iar RX 590 12nm nu a reusit sa demonstreze nimic. TDP-ul continua sa fie mare si performantele sunt mici.
Strategia AMD este sa produca ieftin si asta inseamna mai multe procesoare grafice de complexitate mica grupate pe acelasi suport. O astfel de tehnologie nu are cum sa fie si eficienta si performanta.
Eu nu astept un spor de performanta mai mare de 20% odata cu trecerea la 7nm.
Alta arhitectura decat GCN ar presupune ca este mai buna in ce mai exact ?Hmm..in performanta. Momentan AMD nu are concurent pt Pascal enthusiast, ca sa nu mai zic de Turing enthusiast.
Alta arhitectura decat GCN ar presupune ca este mai buna in ce mai exact ? Dx11 sau Dx10 ? Eu cred ca vor rafina la arhitectura GCN pana cand vor ajunge si jocurile pentru PC sa beneficieze de ea.
Posibil ca 7nm sa fie rezervat doar pentru ... ? Sunt momentan in etapa de risk production...?????
Daca te intereseaza detalii pe tema asta, cam astea ar fi esentialul:Good stuff :thumbs up:
"The leak of DigiTimes (behind a paywall, via Digiworthy) refers to an internal source of TSMC. It’s about the production capacity that the world’s largest foundry is planning for 7nm in 2019. In addition to companies such as Apple, Qualcomm and AMD, Nvidia is also on the list of companies planning to place “massive orders” for 7nm products in 2019. This shows that probably already 2019 graphics cards with 7nm structure width from Nvidia come on the market. Considering the recent launch of the Turing graphics cards and the threat of AMD in the server market, this can only be a Sever GPU. The switch to 7nm in this area would only be logical. The gamers must be happy meanwhile probably with 12nm in the GPU range. The first gaming GPU with 7nm structure width is called Navi. When Nvidia will build gaming GPUs with 7nm structure width is still unknown.
For TSMC, 7nm is definitely a good business. This year there will be more than 50 tapeouts with 7nm, by 2019 more than 100 products with the low structure width will be produced. The largest customers are probably Apple with the A12 Bionic and A12X Bionic and AMD with Vega 20, Navi and Zen 2 as Epyc 2, codenamed Rome, and Ryzen 3000."(via pcbuildersclub)
Ok, deci e evident ca Fiji = Vega = Navi ca si arhitectura, nu ca si performanta. E timpul sa strangeti bani pentru RTX 2080Ti ca nu cred ca Navi (Fiji reloaded) va reprezenta o amenintare pentru Nvidia .
Se repeta istoria vega64 - 1080. Vega mai scumpa la raft ca 1080, performanta intre 1070 si 1080, cu rarele exceptii unde este peste 1080, consum mai ridicat.
La fel va fi si anul asta. Sunt cu o generatie si ceva in urma, n-ai ce sa le ceri. E soarta de underdog.
$80 x 4 HBM 2 chips, 4GB each
Currently HBM 2 chips cost around #80 for 4GB. It is very hard for us to estimate the exact price that AMD is paying to its supplier but with this in mind 16 HBM 2 could be as expensive as $320, very close to half of the whole cost. This will be close to what AMD is paying.
Lul 😂
.................................................................
AMD Radeon VII 16GB vs Nvidia GeForce RTX 2080 Ti (https://www.game-debate.com/gpu/index.php?gid=4092&gid2=4050&compare=AMD%20Radeon%20VII%2016GB-vs-Nvidia%20GeForce%20RTX%202080%20Ti)
Ca performanta se apropie destul de mult de RTX 2080 Ti.
De cand sunt thermal pads ceva nou???Cate placi video cu thermal pad pe GPU cunosti ?
In general thermal pads au o eficienta mult scăzută fata de pasta.
AMD a iesit acum pe piata cu Radeon VII...Pe care piata au iesit? Eu tocmai m-am intors de la piata si n-am vazut-o pe tarabe. Am vazut in schimb RTX 2080 TI, RTX 2080, RTX 2070 si RTX 2060 pe toate rafturile.
Sper ca le va iesi bine, hype-ul e enorm pe net si am impresia ca produsul final nu se va ridica la nivelul asteptarilor.
Sper ca le va iesi bine, hype-ul e enorm pe net si am impresia ca produsul final nu se va ridica la nivelul asteptarilor.
Like it never happened before :D
...Aberezi la greu si nu-i frumos.
Atata timp cat Nvidia are grija ca pentru fiecare joc sa optimizeze drivere inseamna ca performanta placilor in jocuri este stabilita de ei in functie de ce au nevoie sa vanda. Tot ce inseamna Nvidia este blocat si controlat de ei, daca ei stabilesc ca in jocurile noi placile lor generatie veche nu au voie sa primeasca optimizari, placa indiferent daca are sau nu resurse sa duca jocul ala perfect nu va avea posibiltatea ca este blocata din driveri, sau cum vreti voi sa-i ziceti nu a primit optimizari .
...
Microsoft, Sony si Google apreciaza arhitectura GCN, probabil ca raportul consum / performanta este foarte bun daca Google vrea sa porneasca serviciul Stadia cu AMD .
We believe there are several key reasons for AMD's success:
AMD does not compete with these service providers whereas Nvidia does. Naturally, game service providers are likely to be more inclined to work with AMD than their competitor.
AMD has had deep partnerships with Microsoft, Sony, and now Google in developing its gaming chips. This creates compelling chip level advantages for AMD.
AMD has traditionally priced its chip at lower price points than Nvidia, which makes AMD solutions more attractive for massive cloud scale deployments.
AMD has also likely benefited from being an early adopter of technologies such as 7nm and PCIe 4.0. These technologies make AMD incrementally more competitive.
And, finally, not many investors are aware that AMD's Vega architecture can be a very power efficient architecture for data centers (market reputation of Vega being high power has to do with consumer versions).
All of this will reportedly launch for $330 which would be a game changer.Povesti: "Navi series will be cheaper than the Radeon VII desktop graphics card, which had a launch price of US$699."
All of this will reportedly launch for $330 which would be a game changer.Povesti: "Navi series will be cheaper than the Radeon VII desktop graphics card, which had a launch price of US$699."
Adica si 670$ e ceva mai ieftin decat 699$, fara sa fie 330$. Poti sa uiti de performanta la nivel de RTX 2070, la pret de 330$.
...Fani AMD sunt foarte chibzuiti si iau in calcul inaintea performantei specificatiile tehnice care le vor permita sa utilizeze placa video minim 5 ani.Eu cred ca fanii AMD au cam spalat putina si au ramas doar credulii care cumpara hartii cu specificatii.
https://wccftech.com/amd-rx-vega-64-outperforms-nvidia-rtx-2080-by-14-in-vulkan-enabled-world-war-z/GeForce Driver 430.64 Out Now; Optimized for Rage 2 and Total War: Three Kingdoms, Improves Vulkan Performance in World War Z (https://wccftech.com/geforce-driver-430-64-out-now-optimized-for-rage-2-and-total-war-three-kingdoms-improves-vulkan-performance-in-world-war-z/)
...e mult mai probabil sa se refere la actualul radeon 7 la care se adauga placile Navi, care la lansare vor fi toate sub 7 ca performanta...Asa cred si eu. Cu alte cuvinte, dupa ani si ani o sa ajunga si AMD la performante de GTX 1080TI.
"AMD is reportedly getting the Radeon RX 3080 XT ready for E3 2019 with its Navi 10 GPU on the 7nm node, with what should be 8GB of GDDR6 memory. The Navi 10 GPU will, according to the new leaks, feature 56 compute units from the Navi 10 GPU on a 190W TDP and provide performance close to NVIDIA's Turing-based GeForce RTX 2070. All of this will reportedly launch for $330 which would be a game changer.
Deci, RX 570 o sa consume 225W si o sa aiba perfomante de RTX 2070 care consuma 175w?
Ar fi interesant de vazut cum se descurca in raytracing ca poate acel consum este justificat.
TFlops conteaza daca tragi de placa video multi ani, jocurile optimizate mai devreme sau mai tarziu ii vor folosi
Asom preferi in functie de cum te tine buzunarul. E bine ca inca avem de ales ce ne cumparam mai des sau mai rar.
Acum RX 580 8GB VRAM e placa mai buna in zona de pret cu GTX 1060 (3gb sau 6gb vram) dar cumparatorul in general prefera GTX 1060.
Archol, Odyssey este este un joc cu o grafica absolut fenomenala, dar este un joc DirectX 11 si se stie ca AMD nu prea straluceste in DirectX 11.
Ar fi interesant de vazut cum se descurca in raytracing ca poate acel consum este justificat.
Ce pmea de test e asta? 27 jocuri in 2017 si 38 in 2019? Daca ar fi fost sa fie relevant ar fi trebuit ca testul sa fie facut in 2019 pe EXACT aceleasi jocuri ca si in 2017. Altfel e cam de kko.
Oare, ce as prefera eu? Sa cumpar o placa ACUM si sa ma joc ACUM cu ea la potential maxim sau sau o cumpar ACUM cu speranta ca peste 5 ani va avea potential maxim? :D
580 ~240$
1660 ~ 220$
preturi luate la repezeala de pe newegg.
Nu prea e mai scumpa.
Of course, Navi also benefits greatly from TSMC’s 7nm node and the advantages new process technology conveys. The chip is composed of 10.3 billion transistors spread across a 251mm² die. Vega was much larger. Manufactured on GlobalFoundries’ 14nm LPP process, it comprised 12.5 billion transistors in a 495mm² die. It’s no wonder, then, that AMD is citing better-than-Vega 64 frame rates at a notably lower board power.
Conteaza performanta, restul e can-can.
449$ pt perf peste RTX 2070 (care e 599$) e foarte bine. Acum sa vedem daca si realitatea o sa fie la fel :)
Si totusi astia iau an de an piata consolelor si reusesc sa ramana linia de plutire numai cu hardware-ul de pe ele. De aia nu se agita sa scoata nimic interesant, nu au de ce.
The AMD Radeon™ Pro V340 graphics card delivers advanced features and technologies geared towards enterprise, DaaS and cloud gaming solutions to accelerate visualization workloads, including:
Superior User Density: Supports up to 32 1GB virtual machines, up to 33 percent more than the competitive solution.2
Integrated Encode Engine: The ability to compress independent video streams in both H.264 and H.265 formats. Provides design and manufacturing users with the video quality they expect, while empowering IT managers to eliminate CPU bottlenecks.
Ultra-Fast Frame Buffer: HBM2 memory with Error Correcting Code (ECC)3 and better power efficiency than competing solutions allow fast paging apps to run incredibly fast.
Built-in Security Processor: Provides secure boot and encrypted storage capabilities.
Eu cred ca atat seria Super cat si 5700 sunt generatii de tranzitie. Nvidia a declarat ca la anul o sa treca pe 7nm iar AMD o sa introduca raytracing.
Comparatia actuala intre RX 5700 si 5700XT respectiv RTX 2060s si 2070s nu-si are rostul. Este ca si cum ai compara doua autoturisme cu performante apropiate, dar una cheala si alta full accesorizata.
Battlefield e cam singurul care merge bine cu RTX ON. Restul nu prea :(Asta arata ca daca se vrea, se poate implementa raytracing si pe placi video slabe.
N-are nicio statistica displayed in videoul respectiv...Nu are statistici pentru ca se vrea un test de gameplay, nu un benchmark. Vsync si gpu memory restriction sunt pe on by default si daca in timpul inregistrarii se misca asa, iti dai seama ce bine se misca atunci cand nu este pornita inregistrarea.
Uite ce frumos merge Battlefield V cu raytracing pe High la 1920*1080
Nu are statistici pentru ca se vrea un test de gameplay, nu un benchmark
Vsync si gpu memory restriction sunt pe on by defaultSi ce relevanta are asta? Vsync nu face decat sa-ti mascheze adevaratu' average, caz in care chiar ajuta, daca ai avea average de 70+ pe un monitor de 60 si din diferite motive ai da in lows de 30-40, ti-ar da mai putin senzatia de "stutter" decat un drop de la 70-80 la 30-35-40.
iti dai seama ce bine se misca atunci cand nu este pornita inregistrarea.
Battlefield e cam singurul care merge bine cu RTX ON. Restul nu prea :(Asta arata ca daca se vrea, se poate implementa raytracing si pe placi video slabe.
Archol, este inregistrat cu MSI Afterburner, MJPG, calitate 100%.
Kodiak, cate fps ai pe consola? Pune si tu un filmulet pe aceeasi harta sa vad daca tu joci mai bine la 100 fps.
Tocmai am aratat ca cea mai slaba placa cu suport DXR duce BF 5 cu setari high la 1080p.
astateofmind, tocmai discutia despre fps vreau sa o evit. Pe consola ai 30 fps si nu se plange nimeni. Multumesc de filmulet, dar eu vroiam sa te vad pe tine jucand mai bine. :)
Faptul ca asa au fost concepute,nu inseamna ca asta este tot ce ar putea acea companie,faptul ca un bec este conceput sa tina un anumit timp,nu inseamna ca becul in sine nu poate tine si peste 100 de ani,cum este de fapt adevaratul bec, pe care in mod normal stranepotii l-ar schimba daca ar fi conceput asa cum ar trebui.
Da,chiar cred asta,
Da,chiar cred asta,
Really? Chiar crezi ca s-au gandit sa traga de 5700 in jos, nu cumva sa fie prea performanta si nu cumva sa intre cu ea in alta plaja de pret?
Adica, ce zici tu e chiar logic. De ce sa vanda aceeasi placa la 600$ cand pot sa o traga mai jos si sa o vanda la 350$ ... logic bah, logic.
Nosferatu, tu nu intelegi ca price fixing-ul in cazul de fata nu prea ajuta nici pe AMD nici pe nVidia cu nimic. Oricum au market share de ~80%, iar lumea cumpara nVidia din inertie, chiar daca AMD ar avea ceva competitiv, dar mai ieftin. S-a vazut asta concret pe vremea R9 290, cand lumea lua GTX 780, chiar daca era mai scmpa ca 290 dar la fel de performanta.
Ai 2 video-uri in care explica destul de clar de ce preturile placilor video se afla la nivelul la care se afla,ti se explica clar ce inseamna price fixing,cum au fost prinsi atat amd si nvidia in trecut de acest lucru,de ce acest trend se repeta. De acolo interpretezi ce doresti,nu am sa imi pierd timpul pe argumente repetitive cand dovezile sunt acolo la vedere,daca doresti sa le ignori sau sa le interpretezi altfel,ma rog...aia e deja altceva,alta mancare de peste.Ce treaba au preturile placilor video cu faptul ca tu sustii ca RX 5700(XT) ar fi defapt MULT mai performante, dar sunt castrate intentionat de AMD. Despre asta era vorba, si inca nu ai reusit sa vii cu vreun argument prin care sa-ti motivezi aceasta convingere.
Lisa Su (CEO AMD) a declarat deja de mai multe ori ca nu vrea ca AMD sa mai fie privita ca "alternativa ieftina" la procesoare si placi video, de unde rezulta ca preturile la produsele AMD pot fi ceva mai mici decat ale concurentei, dar nu sensibil mai mici la performanta similara.
Adica sperati degeaba la preturi mai mici datorita AMD.
unde chiar daca lucrezi la MC, iti permiți ceva decent, bun, la fel ca unul care are un salariu si mai bun, într-un domeniu mai ok,
Ai 2 video-uri in care explica destul de clar de ce preturile placilor video se afla la nivelul la care se afla,ti se explica clar ce inseamna price fixing,cum au fost prinsi atat amd si nvidia in trecut de acest lucru,de ce acest trend se repeta. De acolo interpretezi ce doresti,nu am sa imi pierd timpul pe argumente repetitive cand dovezile sunt acolo la vedere,daca doresti sa le ignori sau sa le interpretezi altfel,ma rog...aia e deja altceva,alta mancare de peste.Ce treaba au preturile placilor video cu faptul ca tu sustii ca RX 5700(XT) ar fi defapt MULT mai performante, dar sunt castrate intentionat de AMD. Despre asta era vorba, si inca nu ai reusit sa vii cu vreun argument prin care sa-ti motivezi aceasta convingere.
Faptul ca preturile placilor video sunt nesimtit de mari nu contesta nimeni. Dar esle sunt cum sunt doar pt ca lumea le cumpara. Nu este vorba de nici un price fixing sau alte conspiratii. De ce ar vinde nvidia/AMD o placa video la $400 cand se vinde la fel de bine la ~$600. Singurii vinovati de asta suntem noi, cumparatorii. Daca 6 luni de exemplu nimeni nu ar mai cumpara nicio placa video noua, garantat preturile ar scadea masiv.
Eu am mai lucrat prin chestii d'astea financiare, si jocuri sunt cam peste tot, ca am vorbi de haine, de gaz, titei, apa, aur, argint, ca prin absolut nici o forma nu ti-ar trece prin cap, un mini joc in industria tech...
Aia de 40 ani sunt inpatimiti de hardware si nu au doar placi video scumpe, au probabil si ceva colecti de componente interesante si rare.
ASUS Radeon RX 5700 XT ROG STRIX review (https://www.guru3d.com/articles_pages/asus_radeon_rx_5700_xt_rog_strix_review,1.html)Ai pus tag-ul gresit la link :)
Performanta buna, pret OK, mai calda si cu consum ceva mai mare decat concurenta la aceeasi performanta.
https://www.techpowerup.com/gpu-specs/radeon-rx-5900-xt.c3481
Am mai auzit logica asta. Sa faca AMD placi video bune ca sa-mi pot cumpara Nvidia mai ieftin.
...Ce face acum un posesor de GTX 1060 cand nu mai poate misca RDR 2?...Se tavaleste pe jos de ras cand citeste prostiile pe care le debitezi. Vorbesti ca un sectant care face prozelitism pentru AMD.
Inca nu te-ai obisnuit ca este fanboy inrait amd?...Ce face acum un posesor de GTX 1060 cand nu mai poate misca RDR 2?...Se tavaleste pe jos de ras cand citeste prostiile pe care le debitezi. Vorbesti ca un sectant care face prozelitism pentru AMD.
"Vreau sa joc acum". Asa spunea cumparatorul de GTX 1060 cu patru ani in urma. Pariez ca inca mai are GTX 1060. Cine cumpara din zona aia de pret nu schimba placa mai des de 5 ani. Chestia e ca atunci si RX 480 si GTX 1060 se descurcau bine in jocuri, atunci chiar era irelevant care e ceva mai buna. Abia acum plusul de performanta conteaza pentru ca jocurile o cer.
RX580 are 8gb memorie, putem sa mai asteptam 4 ani.
580 a fost -este 1060 la lansare. Acum e tot peste, cu 5%. Chiar daca amd se comporta bine, e doar cu 2-3% in plus fata de acum 4 ani. Un rahat.
Inseamna ca nu te-ai uitat deloc la filmul ala.
Ehe, pentru 3% altii renunta la nr dublu de cores. Important e sa fie cel mai bun. Acum. In jocuri ca eu ma joc.
Clar, nu te-ai uitat, altfel vedeai cum GTX 1060 e ramasa rau in urma. Mai continuam cu asta?
Niciun avantaj pana apar jocuri care cer mai multe cores. Ca nu ne invatam niciodata minte, asa zicem mereu ca e suficient si mai repede decat ne asteptam nu mai e suficient. Ca tot vorbeam de GTX 1060, luau baietii 3 gb vram ca nu-i nevoie de mai mult. Acum joaca Red Dead Redemption 2!
Hai sa vedem cine clar nu s-a uitat:
Din video, 2017 vs 2020. 3% in plus fata de 5% in plus. Clar ramasa rau in urma, un 2% net gain pt 580.
De 10 ani tot asteptam jocuri care sa ceara mai multe cores.
Chiar ma intrebam de unde scoti 3% si 5%. Ai gasit niste poze pe undeva si zici ca te-ai uitat la film. Iti fac si eu poze cu grafice daca vrei. In video uita-te la diferenta de FPS dintre placile video.
Acum 10 ani jucai cu dual core. Mai joaca si acum daca poti.
Acum 10 ani jucai cu 2 gb vram. Acum daca vrei jocuri AAA din 2019 iti trebuie 8 gb vram ca sa fie bine sa nu fie mai rau. :) Dar asa sunt unii, se leaga de un fir de ata sa ramana la firma preferata. Firul de ata poate sa fie 3 fpsuri in plus "acum" sau nu e nevoie de mai mult vram "acum" sau aleg "calitatea" cu ce o mai fi insemnand si asta pentru ei.
A, stiu ce inseamna. Inseamna ca daca Nvidia are zona high end de ceva vreme, Nvidia e placa de cumparat in orice zona de pret. E ca si cum pe segmentul tau de pret BMW si Audi au solutii mai bune dar tu alegi "calitatea" ca Mercedes e campioana in F1.
E discutabila performanta in titlurile noi. Faptul ca GTX 1060 are 30fps si RX 580 are 35 nu ma incalzeste cu nimic. Cu ambele placi jocul respectiv este nejucabil.
Intr-un review din feb 2020 observ la performance summary ca diferenta este de aproximativ 4% intre GTX 1060 6GB si RX 580 (cum zicea si ASOM):
(https://images2.imgbox.com/33/81/SPCLV6NE_o.png)
Situatia nu este prea roza nici daca ma uit individual la perf in jocurile noi. Doar in Devil May Cry 5 si Surge 2 este o diferenta notabil intre ele. Insa doar in Surge 2 conteaza cu adevarat (API Vulkan totusi :P ):
(https://images2.imgbox.com/1c/23/90SjPZ4c_o.png) (https://images2.imgbox.com/cd/2d/FadaNGmv_o.png)
In restul jocurilor nu pot spune ca as fi multumit de performanta niciuneia dintre placi:
Din pacate nici macar pe performanta AMD in general mai buna in Vulkan nu pot sa ma bazez. Dupa ce in Surge 2 diferenta este de 15fps, in Rage 2 este de doar 2 fps :(
In concluzie, indiferent ce placa mi-as fi luat dintre cele 2, as simti nevoia de upgrade la fel de mare acum :)
si apoi am dat-o si acum la Pc pustiului am luat un 580 cu 400 lei ce sa mai zic
Nu sunt "pe undeva", sunt din film. Si zici ca te-ai uitat la film???
Diferenta de FPS dintre placi este redata de performanta generala.
Da, da, hai sa luam un procesor de acum 10 ani cu 4 sau 6 cores. Phenom 2. Spune-mi tu cu mana pe rosu ca un 8086k (tot 6 cores) e doar cu 3% mai performant in jocuri decat un Phenom cu 6 cores. Si acum 10 ani existau multicores. Si nu m-as mira ca acel dual core de acum 10 ani sa fie tot mai performant in jocuri decat acel phenom. Numarul de cores NU e totul.
Ca idee acum 10 ani jucam pe 4 cores. i5 750.
Misto strawman-ul, dar e doar un strawman.
Nu stiu cum pt tine e o surpriza ca tehnologia mai noua e mai performanta. Dar nu despre asta e vorba aici.
Eh, nu intelegi tu, astia spera sa mai tragă de 580 încă 4 ani :D
In concluzie, indiferent ce placa mi-as fi luat dintre cele 2, as simti nevoia de upgrade la fel de mare acum :)
In restul jocurilor nu pot spune ca as fi multumit de performanta niciuneia dintre placi:
(https://images2.imgbox.com/43/83/sTbyMAKC_o.png)
Din nou, joaca acum Red Dead Redemption 2 cu o Nvidia 1060 de 3 gb.
Si acum 10 ani existau multicores. Numai ca unii baieti spuneau ca de 10 ani asteapta sa fie folosite mai multe cores in jocuri si luau dual core.
...Nu te mai agita atat, graficele alea sunt fake.
Si de ce nu poti juca? De fapt asta demonstreaza ca AC Origins poti juca cu RX 580 8gb dar nu cu GTX 1060 3gb. Pentru ca la 37 fps poti juca. Nu poti juca la 23 fps...
Comparatia era vs 1060 6Gb nu 1060 3Gb, care a fost o placa nerecomandata si atunci, nu doar acum.
Degeaba esti tu asa de vehement, placile sunt similare ca performanta, si nu esti better off cu nici una din ele. Faptul ca tu consideri ca la 37fps un joc e foarte jucabil, dar la 34 nu este, este o dovada clara de fanboism extrem.
Ca fapt divers eu in perioada lui RX 580 aveam R9 290 si vroiam upgrade. Nu am tinut mortis sa trec pe nvidia, dar din pacate AMD nu avea ce sa-mi ofere. RX580 era doar marginal mai buna decat R9 290, iar alta placa mai buna AMD nu exista. Am asteptat vreo 6 luni dupa Vega si cand in sfarsit au aparut, aveau perf similare cu GTX 1070 (deci clar upgrade fata de ce aveam eu), insa la ~3000 lei. Asa ca am preferat sa imi iau un GTX 1080 SH la 1800 lei. Deci in final am mers pe varianta cea mai ieftina care imi satisfacea cerintele, chiar daca tu ai impresia ca daca iei nVidia nu te uiti la bani. Iar overall cred ca jumatate din placile video au fost ATi/AMD, jumatate nVidia, iar la fiecare upgarde am mers pe raportul calitate/pret cel mai bun pt mine.
...Nu te mai agita atat, graficele alea sunt fake.
Si de ce nu poti juca? De fapt asta demonstreaza ca AC Origins poti juca cu RX 580 8gb dar nu cu GTX 1060 3gb. Pentru ca la 37 fps poti juca. Nu poti juca la 23 fps...
Uite cum se comporta in realitate GTX 1060 in Odyssey pe Ultra High:
Si afirmatia ta cum ca nu se poate juca cu GTX 1060 3GB e falsa pentru ca nu te obliga nimeni sa joci pe ultra. Pune setarile pe High si o sa vezi ca jocul merge uns.
E vorba de cumparatorul neavizat.Ai punctat foate bine. Cumparatorul neavizat o sa cumpere nVidia aproape sigur. Din pacate asta e realitatea. Si a pus si AdoredTV un filmulet f interesant pe tema asta acu vreun an parca. Pur si simplu AMD nu prea are sanse sa mai ia din marketshare-ul nVidia oricat de performanti si eficienti ar fi.
...Ia vezi tu cum o dai si spune-mi cate fps scoate RX 580 in BF V, Tomb Raider si Metro Exodus cu ray-tracing. Scoate zero fps.
Oricum o dai, RX 580 acum e mult in fata. Case closed!
...
bai esti nebun 1060 stie rtx? wow cat de tare! nu stiam!Bai, oi fi eu nebun, dar nu sunt fan amdisto-habarnist.
...
...Sper sa creasca preturile la placile nvidia asa mult incat sa mancati doar parizer cu paine 6 luni doar ca sa va permiteti midrange cu RTX on. Long live Nvidia.Tu speri sa moara capra vecinului ca sa-ti traisca tie hamsterul?
Tin minte cand ti-ai cumperat un GtX mai demult si ai apelat la tot felul de cupoane si reduceri pentru ca pretul era chiar obscen si chiar daca aveai bani nu ti se parea normal sa coste atata.
...Bai esti nebun? RX 5700XT stie rtx? wow cat de tare! nu stiam!
Pe ORICE palier de performanta te situezi ... AMD NU ESTE cu mult mai ieftin. Poate 10-20$.
Hai sa vedem:
AMD 5700XT ~400$
Nvidia 2070 ~400$.
Cam aceeasi performanta.
Bai esti nebun? RX 5700XT stie rtx? wow cat de tare! nu stiam!
...Ma bucur. Chiar nu stiam ca si AMD a adoptat physx. Cum se comporta RX 570 in Assassins Creed Odyssey?
La mine RX 570 -ul stie PhysX, ma astept ca RX 5700 XT fiind mai nou sa stie si el RTX.
RTX e cam inutil deocamdata. Doar un demo tehnologic. Iar rtx pe 2070 oricum nu prea e jucabil. SO ... e ca si cum nu ar exista. Oricum, nu RTX era idea :D :PImi pare rau, dar nu sunt de acord cu tine. Textele astea "demo tehnologic", "rtx pe 2070 oricum nu prea e jucabil." sunt afirmatii care nu au legatura cu realitatea.
Imi pare rau, dar nu sunt de acord cu tine. Textele astea "demo tehnologic", "rtx pe 2070 oricum nu prea e jucabil." sunt afirmatii care nu au legatura cu realitatea.
Cauta si tu informatie actualizata.
E nostim cum acum fanii Intel incearca sa explice de ce caldura si consum mai mare sunt bune. Hai si cu Nvidia.]
... In filmuletul tau RTX nu prea e folosit... jocurile cu RTX le numeri pe degete...Ti-am inteles punctul de vedere. Hai pa!
AMD in continuare e foarte sensibil la ce componente pui. Am 2 sisteme Ryzen 1700x ce isi iau freeze/reboot zilnic de cateva ori si sunt al naibii de greu de suportat. IAu mai aparut inca 2 generatii de Ryzen intre timp, dar tu faci afirmatii bazandu-te pe un procesor vechi de 3 ani :)
Momentan este la fel de util ca HDR-ul pe display-uri care au sub 1000 niti luminozitate.
Sustii cumva ca HDR-ul pe display OLED nu e util? :DSunt OLED-uri care au bightness peste 1000 niti. Iar alea au note mai mari :)
Nici un OLED nu atinge 1000nits dar mai toate iau 9-10 pe site-uri de reviews la HDR image quality ...
Sunt OLED-uri care au bightness peste 1000 niti. Iar alea au note mai mari :)
https://www.rtings.com/tv/tests/picture-quality/peak-brightness
Acum depinde si ce site-uri de review folosesti :)
Cauta si tu informatie actualizata.
AMD Next-Gen RDNA2 'Radeon RX' GPUs (https://wccftech.com/amd-radeon-rx-navi-2x-rdna2-gpus-2x-performance-ray-tracing-2020-launch/) Feature 50% Better Performance Per Watt, Ray-Tracing, Variable Rate Shading & More - Arriving Later This Year
Deci spre 20% peste RTX 2080 Ti.
Adica mentin consumul si castiga 50%.
Daca mențin consumul da. Au spus ceva despre asta?Asa au facut cu toate placile din ultimele generatii (incepand de la Radeon R9 FURY X, daca mai tin bine minte). Le-au fortat la maximul suportat de cipuri. De unde s-a si constatat ca o usoara reducere a voltajului deja poate aduce o scadere semnificativa a consumului cu o pierdere minora de performanta .
Recomandarile minime la pv pentru jocul asta includ NVIDIA GeForce GTX 1050 Ti 4GB, iar jocul poate rula si pe W7-64, respectiv in DX11.Merge bine si pe GT 1030 2GB DDR5 dar trebuie sa te duci in consola si bagi bagi comanda r_antialiasing 0.
Haha, pai depinde ce prioritati ai. Ideea e ca se pot strange banii destul de simplu. Acu ca in final alegi sa ii dai pe altceva, asta e alta discutie :)
Eu gasesc TDP 250W (https://www.techpowerup.com/gpu-specs/asus-rog-matrix-r9-280x-platinum.b2451) la placa aia, nu 375W cat zici tu :) Iar cooler tri-slot pe ea mi se pare overkill rau de tot...
In zona aia de pret nu e greu sa gasesti super oferte. Placile sunt foarte vechi si nu prea au valoare decat pt colectionari. Adica nu prea inteleg cine altcineva ar da 400 lei pe R9 280X, cand in aceeasi bani poate sa-si ia RX 580, placa de ~2x mai buna.
In momentul in care treci de 1000-1500 lei nu prea mai gasesti astfel de oferte.
La nivelul de performanta pe care il caut nu prea sunt astfel de super oferte. Ma indoiesc ca gasesti 2080 Super/Ti pe la 2000-2500 lei.
Si pe langa asta, de obicei ma feresc de ofertele too good to be true. La 500-1000 lei hai sa zic ca poate as risca, dar la 2000+ lei parca nu.
Parerea mea despre AMD big navi:Chiar daca e prima generatie cu RT a AMD, tine cont totusi ca amabele console ce apar anul asta sunt echipate cu navi, deci posibil sa nu fie asa slaba perf in RT. Adica eu ma astept sa fie peste Turing. Ramane de vzut cu cat o sa fie Ampere mai buna decat Turing :)
Va fi peste nvidia in raster dar si-o va fura greu pe RT. Din intamplare pt mine e importanta partea de raster deocamdata asa ca s-ar putea sa merge pe AMD. Depinde si cum se mica ca daca nvidia scoate 3080 in sept si AMD scoate navi la sfantul asteapta ... e cam de kko.
Ultimul zvon: AMD's next-gen RDNA 2 ar fi cu 40-50% mai rapida decat GeForce RTX 2080 Ti. ;DDaca e adevarat ar plasa-o undeva intre RTX 3070 si RTX 3080. Daca vine pe la 2000-2500 lei at ar fi best buy :D
Daca e adevarat ar plasa-o undeva intre RTX 3070 si RTX 3080. Daca vine pe la 2000-2500 lei at ar fi best buy :D
Din pacate insa, se zvoneste un 799$ pt Big Navi :(
Ultimele info sustin ca Big Navi va egala 3080, la un consum ceva mai mic (~300W)Tot "ultimele informatii" spuneau ca RTX3090 va avea sub 9000 de shadere, unele dintre ele speculand acest numar in zona unde este confirmat acum RTX 3070.
Tot "ultimele informatii" spuneau ca RTX3090 va avea sub 9000 de shadere, unele dintre ele speculand acest numar in zona unde este confirmat acum RTX 3070.1. "Ultimele informatii" se actualizeaza pe masura ce se apropie momentul lansarii, cand incep sa ajunga componentele fizice si alte detalii la producatori.
Si nu vad cum pot egala un 3080 cu un consum mai mic....
Tacerea lor imi da impresia ca prezentarea oficiala a seriei 3000 i-a lovit ca o tornada de gradul 5, pentru ca acum era (si inca mai este) momentul sa anunte ceva legat de un produs chiar demn de luat in seama.
Sa nu neglijam si alte elemente. Incarcarea excesiva cu memorie vRAM va creste costurile, iar nVidia isi produce chipurile mult mai ieftin la Samsung.
Well, problema mea e:N-o sa scoata ceva mult mai bun. Eventual o sa scoata ceva apropiat, dar cu 16GB memorie si poate ceva mai ieftin.
Daca reusesc sa iau 3080 acum si amd scoate ceva mult mai bun peste o luna o sa ma oftic...
Si in general nu e recomandat a fi cumparate produse imediat dupa lansare, pentru a evita probleme de genul celor avute cu seria RTX 2000 legate de memorii (Samsung bune, Micron cu probleme, si nu prea stia nimeni ce marca de memorii contin inainte de achizitie).
Merita sa stai atata fara placa video? Adica cata economie faci overall?
Eu tot timpul mai intai iau placa noua si dupa aia o vand pe aia veche, si pana acum nu mi s-a parut ca au scazut preturile semnificativ.
Ei intre ei (Nvidia si AMD) stiu mai bine ce pregateste celalalt si la ce sa se astepte. De ex. faptul ca Nvidia a trecut in premiera peste orice limita in ceea ce priveste consumul placilor video, mie imi sugereaza ca le-a fost putin frica de ceea de ce pregateste AMD si au tras de tot ce au putut.Poate ca le-o fi fost putin frica in 2016, cand asteptau "poor Volta". Au lansat superbul pe atunci GTX 1080 in luna mai si au asteptat lansarea Vega. Abia dupa a venit si RTX 2080Ti.
4. Nu stie publicul nimic despre costurile reale si despre contractele confidentiale dintre diferite companii.Nu, dar o lege a pietei libere spune ca preturile cresc cand cererea depaseste oferta. Exact in aceasta situatie se afla acum TSMC.
Nu, dar o lege a pietei libere spune ca preturile cresc cand cererea depaseste oferta. Exact in aceasta situatie se afla acum TSMC.
pe nvidia, dupa teapa actuala data celor cu 2080ti,Dar de teapa data de AMD celor cu Radeon VII ce zici? Dupa nici 6 luni vin pe piata cu RX 5700 XT un pic mai buna dar la aproape 1/2 pret? Nu le-ar fi rusine, mama lor de nesimtiti...
Dar totusi care e teapa data de nvidia celor cu RTX 2080Ti?
nu cunosc prea multe, dar stiu ca atunci cand trag linie, cumparand amd rvii, sunt pe plus:
- am vandut-o dupa 1.5 ani cu mai multi bani decat am cumparat-o
- voi lua navi 2x care va fi, estimez, de 1.8x - 2x mai buna decat 5700xt
- pretul, probabil, va fi cam tot in jurul unui rvii, adica 3500 lei
- la final, probabil, dau 3500 -4000 pt o placa cam cu 30% mai buna decat 2080ti (care costa 1200 para)
despre nvidia stiu ca dupa 1.5ani, au scos o placa la fel de puternica ca cea de 1200 para, la pret de 500 para
aia cu "atunci era ultima tehnologie" si alte vorbe, sunt doar scuze, incercari puerile de justificare a pierderii suferute, nimic mai mult
inclusiv cei cu 2070, 2080, vazand ampere, si-au luat o tzeapa de zile mari, zic eu
legat de nvidia, eu mi-am invatat lectia dupa gtx970 si vad ca n-am gresit, instinctul a avut dreptate
asom, nu e logica, e matematica
stiu ca esti fan nv inrait, eram dumy252008 pe celalat site :))
fie cum zici tu
hai sa tragem linie si sa vedem cine a avut de castigat din investirea banilor in RVII sau 2080 :)
da, eu stiu 110% ca voi lua Navi 2X, probabil ca asta ma face fanboy :)
No shit Sherlock...sheesh. Cum pm sa spui ca iei o placa de care habar nu ai in dauna alteia poate muuult mai bune la un pret extrem de competitiv. Pentru ca in final, asta reprezinta seria x3 de la kkvidia, performanta la preturi okish. Mentalitatea asta a ta dauneaza mult pietei, pentru ca tu ca si consumer trebuie sa gandesti in termeni de best bang for the buck. RVII NU a fost si nu va fi in categoria asta niciodata.
da, eu stiu 110% ca voi lua Navi 2X, probabil ca asta ma face fanboy :)
hai sa tragem linie si sa vedem cine a avut de castigat din investirea banilor in RVII sau 2080 :)A tras chiar AMD linie si a concluzionat ca Radeon VII este prea scumpa pentru ce ofera. Nici in aplicatii nu straluceste, nu isi merita banii nici pe acest segment atat timp cat nu poate depasi un RTX 2060. Ca ai cumparat Radeon VII sau ca ai platit 800$/noapte la un hotel de doua stele, fix aceeasi țeapă ai luat. Cred totusi ca a durut cand fanboysmul nu ti-a permis sa cumperi un produs mult mai competitiv de la concurenta si chiar AMD te-a tradat cu 5700XT.
o lege, lege pe bune, spune ca daca ai un contract nu ai cum sa cresti preturile pentru acel client. ura si la gara.Ce sa contracteze AMD in cazul chip-urilor grafice cand abia acum cateva zile au aflat oferta rivalului? Contracte de genul acesta se fac pe termen scurt, altfel risti falimentul daca ramai cu marfa nevanduta pentru ca ai contractat prea multa. Cand AMD are disperata nevoie de TSMC, iar TSMC poate acoperi imediat golul lasat de AMD, nu e greu de dedus cine bate cu pumnul in masa la masa negocierilor. Nu e o nascocire a mea, ci ingrijoararea multor analisti americani fsta de aceasta dependenta a AMD de TSMC si cel mai probabil preturile sunt motivul pentru care nVidia a migrat o parte din productie la Samsung. Colosul A100 il produce la TSMC, dar la 20.000$ placa isi permit sa plateasca oricat taiwanezilor.
A tras AMD linie si a scos RX5700 best bang for the buck si tot nu s-a vandut fata de ce are Nvidia pe piata.Actually s-a vandut destul de bine pe segmentul ei de pret. Din pacate pt AMD cei care vroiau perf mai mare de RTX 2070, nu aveau ce sa cumpere de la ei, deci erau fortati sa cumpere nVidia.
eram dumy252008 pe celalat site :))
De pe la seria R9 s-a cam dus draq tot branding-ul lor. Au trecut de la HD4xxx, HD5xxx, HD6xxx, HD7xxx (unde lumea cam invatase din denumirea modelului cam la ce nivel de perf sa se astepte) la R7/9 2xx, 3xx, Fury, dupa aia RX 4xx, RX 5xx, Radeon VII, Vega, acum RX 5xxx. Cineva care nu e pasionat de IT, si nu e la curent cu fiecare generatie, habar n-are ce sa ia de la AMD. Multi nici nu stiu ca mai exista si alt optiune afara de nVidia. E cam cum era long time ago la CPUs, unde lumea intreba ce Pentium ai nu ce procesor ai.
pt ca mi-am vandut si 2700X pt Zen3...acum stau pe 4690K cu Vega64Nu inteleg cum ai ajuns tu sa incarci 8 threads cu placa aia video? Poate in 640x480 :)
nu credeam c-o sa vad vreodata 4 core-uri in full load in MSFS, Gears 5, Snowrunner :)
@asom asa da :)
@ cum sa dauneze mentalitatea mea pietei cand eu stiu ca investesc intr-un produs putin mai slab decat al concurentei?
Foarte tarziu. O gramada se vor arunca pe 3080 acum.
AMD va dezvalui arhitectura RDNA 2 si noile placi grafice din seria Radeon RX 6000 pe 28 octombrie. ;DFoarte tarziu, semn ca au probleme. Daca amana, problemele sunt foarte grave
Destul de tarziu, as zice.
Pe posesorii de 2080 Ti ii doare-n basca de ce zice "lumea". Isi pot cumpara fara probleme ceva mai tare, oricand apare.
Aia care tipa sunt idioti. Nu iti iei placa la nivelul ala si te astept ca peste 2 ani o sa iei pe ea 80-90% din cat ai dat.
sa fim sinceri, RT-ul promovat de nvidia a fost un marketing fals, nimic mai mult
la fel si pt RTX2000 si e posibil sa fie la fel si pt RTX3000 (la fel si Navi2X dar poate amd nu va accentua acest RT prea mult)
ma mir pt ca nv stia de Ampere inca de cand au scos RTX2000 si cu toate astea au ales sa mulga la greu clientii, asa au si facut, iar acest muls s-a vazut acum cand au lansat RTX3000
4690K are 4 cire-uri, fara HT
@wolf clar c-avem toti o problema la rotite privind hardware-ul :)Esti irecuperabil! Sustii ca nVidia smulge 7 piei de pe noi, dar pui grafic cu un Radeon mai slab ca oferta concurentei dar care s-a vandut la acelasi pret. Vega a fost si mai slaba, iar cele racite cu apa (probabil sfintita) costau cat un 1080Ti plus un procesor capabil in gaming. Costau mult peste 4000 lei, pe cand un Ti il cumparai si cu 3500 pana sa vina nebunia cu mineritul.
Vega64 a fost racita cu apa, RX480 nu, era prea mare investitia
asa-i, pusesem tot pc-ul pe perete :)
@asom au scos cei de la hardware unboxed un video in care compara 1080ti cu 2080 si radeon vii
dupa cum vezi si-n grafic, nu era asa de slaba cum ai spus, -50%... eu am folosit-o-n 4K
oricum, Vega64 a fost cu 30% mai slaba decat RVII.
RVII va fi cu mult peste 30% mai slaba decat Navi2X (eu sper 70-80% mai slaba)
ieri parca a aparut un zvon cum ca Navi2X va costa 550 dolari, adica 550euro*1.19=655euro = 3200 lei
ca si fost posesor de RVII, daca aceste zvonuri vor fi corecte... nu pot decat sa ma bucur
@KodiaK sa fim sinceri, RT-ul promovat de nvidia a fost un marketing fals, nimic mai mult
la fel si pt RTX2000 si e posibil sa fie la fel si pt RTX3000 (la fel si Navi2X dar poate amd nu va accentua acest RT prea mult)
ma mir pt ca nv stia de Ampere inca de cand au scos RTX2000 si cu toate astea au ales sa mulga la greu clientii, asa au si facut, iar acest muls s-a vazut acum cand au lansat RTX3000
4690K are 4 cire-uri, fara HT
Daca va fi ceva mai buna decat 2080 Ti si la un consum sub 270W, pe mine ma intereseaza mai mult decat caloriferul 3080. :)
Atunci nu are logica intarzierea cu aproape doua luni a prezentarii si a Dumnezeu stie cat pana cand Big Navi va fi disponibil pe piata. Zvonurile de acest gen trebuie inghitite cu multa sare.Intarziere fata de ce?
Intarziere fata de ce?Puteau anunta acum unul-doua modele din serie, daca stau atat de bine. Sa vada lumea ceva palpabil, insa zvonurile acestea optimiste par a avea scopul de a mai tempera elanul celor care nu sunt legati de o tabara anume si au target performanta lui 3070 sau 3080. Pana acum, totul pare o copie fidela a lansarii lui 1080, despre care se stia de luni bune dinainte, iar din cealalta tabara veneau numai promisiuni. Ramane doar sa vedem daca vor lansa Big Navi sau Big Shit.
Trebuia sa fie acum, si au amanat-o?
Nu poate fi deconspirata performanta noii arhitecturi inainte de intelegerea cu Sony si Microsoft.Exista vreun anunt oficial cu interdictia?
de unde ai scos 10-15% diferenta in favoarea nvidia?De pe TechPower-up, sectiunea Performance Summary (https://www.techpowerup.com/review/amd-radeon-rx-5700-xt/28.html).
am dat 3500 lei pe RVII, are perf de 2080. dupa 1.5 ani am vandu-o cu 4000 si are aceeasi perf de 2080. cu cat se vinde acum un 2080? cu mai mult? nu credRadeon VII, a fost in jur de 4000 lei la lansare, nu 3500, iar faptul ca ai gasit acu un prost care sa dea 4000 lei pe ea, nu o face smart investment. Nu aveai cum sa stii cand ai luat-o, ca o sa o vinzi peste 1.5 ani cu profit. Si chiar tu ai recunoscut ca o pusesei la vanzare la 2500 lei parca, si ca te-ai mirat cand cineva ti-a oferit 4000 lei pe ea. Deci clar te asteptai sa o vinzi in pierdere f mare, asa ca n-o mai da la intors acum. Cu alte cuvinte ai avut un noroc cu caru :)
unde, cum sa ma simt trisat in alegere? nu inteleg
@KodiaK mda...nu stiu ce sa zic... daca intr-un an driver-ele amd au adus la egalitate 5700xt cu 2070s...nu face decat s-arate ca investia in nvidia pe termen lung este una neinspirata si in acelasi timp, cat de varza erau driver-ele amd la lansarea 5700xt, evident.Nu e chiar la nivelul RTX 2070S nici astazi, dar oricum e mai aproape decat era la lansare.
practic, posesoreii de 5700xt, intr-un an, au castigat 10-12% in performanta la acelasi pret, pe cand posesorii de nvidia au primit...
si in plus, daca ma tine memoria, 5700xt trebuia sa concureze cu 2070, nu cu 2070s, nu? 2070s a fost raspunsul nvidia contra 5700xtDa, dupa cum am mai zis, AMD a pus serioase probleme nVidia cu 5700 XT. Ceva ce nu a mai facut de la HD7xxx incoace cred. A mai fost R9 290 o placa destul de potenta, dar din pacate cu un consum f mare (si temp pe masura).
esti rau, de ce-l faci prost pe om? tind sa cred ca daca dai o tona de bani pe ceva, ii dai si stii ce cumperiNu sunt rau, asta e realitatea. La 4000 lei putea sa ia RTX 2080 Ti sau RTX 2080 Super pe la 2500-3000 lei, ambele peste Radeon VII. Totodata este momentul extrem de prost pt a cumpara o placa video asa de scumpa, avand in vedere seria 3000 de la Nvidia si RX6000 ce urmeaza sa apara de la AMD.
da, nvidia si-a batut joc de clientii sai (dupa cum vezi, eu nu-i fac prosti), privind rtx2000 pt ca ei stiau din timp ce va putea face ampere.Si crezi ca AMD nu stia de RX 5700 cand a lansat Radeon VII?
puteau sa faca acea crestere de pret de la rtx1000 la rtx2000 asa cum au facut-o de la gtx900 la rtx1000, si anume, de bun simt, 30% mai muti bani dar pt 70% la multa performanta, dar n-au facut-o, au ales varianta mulgeriiNu prea puteau faca asta, pt ca seria 2000 a introdus RT. Sau puteau daca renuntau la profit, si cred ca stim toti ce parere are nvidia despre profit :D Tot R&D-ul ala trebuia decontat cumva. Cresterea de perf Maxwell->Pascal o vezi acum (sper, odata ce vedem si noi reviews independente)
Singura legatura intre Radeon 7 si RX 5700 XT este ca ambele sunt produse de AMD.Ce te face sa crezi ca acesti clienti isi schimba placile video ca pe izmene? Si ce sa alegi de la AMD daca doresti gaming in 1440p la blana, sau mai sus, sau raytracing? Daca sunt cativa care isi schimba placile Turing high end (de la 3080 in sus) o fac pentru ca au bani si acea nebunie, in sensul bun al cuvantului. Nu sunt nici prosti, nici fraieri si poate ca ei au dreptul sa spuna despre altii ca sunt fraieri. Poate despre cei care sunt inchistati in fanboysm si cumpara doar ce le poate oferi firma draga, nu neaparat ce le trebuie si care se gaseste din belsug la concurenta. Am prins "in direct" pe forumul celalalt tipi care nu vedeau decat Vega in fata ochilor, desi costa cat 1080Ti. Dar avea HBM, domnule, fps-ul e eco si bio cu HBM. Si Vega au cumparat, ajunsa acum la nivelul lui 2060. Cei care si-au cumparat 1080Ti pot sta si acum linistiti daca nu vor raytracing sau 4K. Care sunt pacalitii?
Radeon 7 s-a produs pentru cateva luni si a disparut, placa avea un pret mic la cat ii costa 16 gb memorie HBM. A fost prima placa pe proces de fabricatie de 7nm, PRIMA !
Nvidia intre timp a muls clienti scotand pe piata constant si des placi video unpic mai bune decat ce au inlocuit, de la Ti la Super numai palme peste botul clientilor care au fost early adopters .
Nvidia are noroc ca clienti lor au doar memorie ram in cap care se reseteaza de fiecare data cand merg la culcare.
Isi schimba placile des ca incepe sa le scada performanta cand nu mai primesc updateuri prin driveri de la Nvidia, singurul care Inca mai trage de 980 ti pe aici cred ca e olds.(?) 980 Ti a fost vanduta de mult. Deja m-am plictisit de Turing, desi merge fb in 4k. ;D
Foarte frumos:
"A tremendous leader in our industry, Lisa Su has successfully advanced leading-edge semiconductor and high-performance computing technologies throughout her career as an accomplished business executive and engineer."
"Lisa's outstanding achievements have significantly strengthened the semiconductor industry and America's global technology leadership, and she has inspired and opened doors for countless others in tech along the way. On behalf of the SIA board of directors, it is my pleasure to announce Lisa as the 2020 Robert N. Noyce Award recipient in recognition of her impressive accomplishments." - John Neuffer, SIA president and CEO
Adica CEO-ul AMD, Dr. Lisa Su, a primit cea mai inalta distinctie oferita in industria semiconductorilor, pentru anul 2020!
https://www.techpowerup.com/review/nvidia-geforce-rtx-3080-amd-3900-xt-vs-intel-10900k/27.htmlIn 4k, pentru care sunt placile astea, nu este practic nici o diferenta cu procesoare diferite. O sa fie valabil si pentru Big Navi care are aceeasi tinta (4k).
RTX 3090 va pune si mai mult in evidenta distanta in gaming dintre intel si amd la procesoare. Penalizarea de performanta este IMENSA! Eu cred ca acesta este principalul motiv pentru care se grabesc cu Zen 3 si nu cu Big Navi, dar nici cu el nu vor face mari minuni pentru ca 9900K este echivalentul lui 10700K in acest moment.
nu m-ar deranja ca pretul 6800XT sa fie 650 dolari MSRP, dar voi da si 700, cat e 3080-ul
Un reprezentant AMD (Frank Azor, Chief Architect of Gaming Solutions) a declarat oficial ca placile AMD vor fi disponibile in cantitati mult mai mari decat in cazul Nvidia, chiar din ziua lansarii, deci din 28 octombrie.Au istoric bogat la dat din gura. Mi se pare tare suspecta avalansa aceasta de leak-uri, venita imediat dupa anuntul oficial al verzilor privind caracteristicile placilor (pe care nimeni nu le-a nimerit) si preturile foarte atragatoare pentru 3070 si 3080. Leak-ul e forma perfecta de a minti fara a putea invinui producatorul.
Asta nu inseamna ca vor fi destule, dar vor fi in ziua lansarii.
Lasa dumele ca stii f bine ca o sa iti iei AMD indiferent de pret si perfromanta. Ai urlat pe aici din toti rarunchii ca Navi2x de 2x mai bun decat navi si ca 110% o sa iei. Ca daca nu ii sustii tu financiar atunci cine o sa o faca.
Pai ce facem acum, una sustii si alta faci, e oare frumos?
Big Navi e din nou o solutie intermediara inainte de o arhitectura cu adevarat revolutionara, asteptata in 2021, cea bazata pe design "chiplet".Revolutia Vega care va distruge Volta.
Dar sunt sanse mari ca seria 6000 sa ofere o surpriza placuta.
Acum asteapta toti revolutia Big Navi care va umili Ampere si in 2021 asteptam inca o revolutie revolutionara.
Spanac pe varza! Nu e nicio deosebire dintre promisiunile AMD si cele ale politicienilor nostri. ;D ;D ;D ;D
Daca Navi 21 ajunge la 22TFLOP si nu au facut la fel ca Nvidia atunci e cam la acelasi nivel cu 3080. Poate chiar mai sus.Si la Navi tot teoretic se aplica. 5700XT este peste 2070Super si la FP16 si la FP32 dar mai slaba in jocuri.
3080 are TEORETIC maxim 30TFlops, practic are cam 20TFLOPS. Nici un joc nu are load exclusiv FP32 si cam 30% din load e INT, deci 30% din acei TFLOPS vor fi consumati cu operatiuni INT.
3080 are TEORETIC maxim 30TFlops, practic are cam 20TFLOPS. Nici un joc nu are load exclusiv FP32 si cam 30% din load e INT, deci 30% din acei TFLOPS vor fi consumati cu operatiuni INT.
diferentele sunt foarte mici, gen 2-4FPS in 1440p si 2160p iar in 1080p 5700XT e mai buna decat 2070S cu vreo 2 FPS-uri, overallSunt de 9% in 4k si de 6% in 1440p in favoarea lui 2070S. In mod cert o intrece si in 1080p.
Insa ceva nu se leaga nici aici, pt ca RTX 2080 are 20 TFLOPs reali, iar RTX 3080 are 30-30%= 21 TFLOPs reali. Deci de unde sporul de perf de 50%? Doar din imbunatatiri ale arhitecturii?
acum 2 saptamani au refacut cei de la HU testele 5700XT si 2070S in 14 jocuriCand vine vorba de HU trebuie servit cu sare tot ce spun. Afinitatile lor pentru amd sunt bine cunoscute.
am pus un prt scr la pagina 39 a thread-ului
d-acolo am luat rezultatele
de unde ai scos 2080 20Tflops???
https://www.techpowerup.com/gpu-specs/geforce-rtx-2080.c3224
2080 ~ 10Tflops.
5700XT ~ 9.75Tflops.
ce mi se pare si mai interesant e acest poll facut de TPU: 36% din cei 33.000 vor astepta Navi2X
asta nu inseamna c-o vor cumpara
cam da o palma marketing-ului fals promovat de nvidia si-i arata clar ca respectivul client este educat in a-si cheltui banii
Poll-ul e cam prost facut.Au mai fost si dupa ele trebuia sa vedem market share de cel putin 50% pentru AMD, nicidecum de 18%, cum se prezinta realitatea.
Ar fi o surpriza tare placuta ca dupa toata tacera asta sa vina cu ceva la nivel de 3090. Slabe sanse, dar o sansa mica tot e :)
Ultimul leak sustine ca Big Navi concureaza direct cu RTX 3080, +- in unele jocuri, cu memorie mai multa si la pret ceva mai mic. Memoria GDDR6 e mai ieftina decat GDDR6X, deci diferenta nu incarca mai mult pretul de productie.
Stai ca nu inteleg. Adica e mai mic decat GA102 (628 mm2), si are cu vreo 6M mai putini tranzistori, deci este perfect normal sa consume mai putin.
Ce te miri atat, 7nm ar trebui sa consume mai putin decat 16nm. Au optimizat.Ma mir doar ca inca nu ai aflat ca 5700XT este pe 7nm. Si totusi a fost umilit de un Turing pe 12nm.
Oamenii cu scaun la cap cumpara dupa target, nu dupa religie. Daca esti gamer, cu scaun la cap e sa cumperi Intel in acest moment. Sunt si ieftine, unele mult mai ieftine fata de ce ofera concurenta.
Ce te miri atat, 7nm ar trebui sa consume mai putin decat 16nm. Au optimizat.Ma mir doar ca inca nu ai aflat ca 5700XT este pe 7nm. Si totusi a fost umilit de un Turing pe 12nm.
Ca fapt divers, 5700XT are 175W TDP, iar 2070 doar 115W.
Oamenii cu scaun la cap cumpara dupa target, nu dupa religie. Daca esti gamer, cu scaun la cap e sa cumperi Intel in acest moment. Sunt si ieftine, unele mult mai ieftine fata de ce ofera concurenta.
si nu va fi nevoie ca AMD-ul sa fie pe primul loc in teste (asa cum e acum AMD vs. intel), asta-i partea cea mai interesanta
acest site dubios este recunoscut ca avand editori neprofesionisti, se numeste anantechPoate Anandtech, de la founder-ul Anand Shimpi.
Iar in gaming only AMD e in urma Intel. Conform TechPowerUP, in 720p
Lucrurile se schimba daca vorbim de multi tasking, insa jocurile din pacate nu prea sunt multi-thread apps.
perf. e relativa, sunt jocuri in care intel bate, sunt jocuri in care AMD bate, (productivitatea nici n-o mai iau in calcul), dar per total, AMD bate intel, d-asta intel e pe locul 2 si dupa Zen3, intel va fi pe locul 3 :))
acum am realizat ca testele alea au fost facute cu 10900K+3080 iar testele RX 6000 cu 5900XAsta doar daca 10900K limiteaza 3080-ul si 5900X, RX 6000-ul. Dar ma indoiesc profund de asta. Deci cel mai probabil performantele placilor nu variaza fctie de procesor.
5900X fiind mai bun decat 10900K, rezulta inca vreo 5% in plus pt 3080, estimativ
daca e asa, desi in poza au aratat acel design de 6900, rezultatele ar fi in jurul 3070, nu-i asa?Nu-i asa. In orice varianta pare a fi peste RTX 2080 Ti/3070 cu ~20%, ceea ce ar fi suficient ca sa se vanda ca painea calda si sa nu fie suficiente pana prin februarie 2021. 8)
vezi ca e foarte posibil ca si fanii nvidia sa ajunga sa spuna ca "AMD este pt saraci", asa cum fac fanii intel acum pt ca asta-i singurul motiv pe care-l pot gasiTe citesc cu interes si nu incetezi sa ma uimesti.
asta si arata cat de redusi sunt, zic eu
studiaza mai bine 5700XT vs. 2070, dupa care 5700XT vs. 2070S si ai sa vezi de ce ironiile cu "obstacole" si "a 8-a minune" nu sunt decat vorbe-n vant, ba chiar vorbe tematoare
8400 a fost un CPU de rahat
Ca fapt divers, 5700XT are 175W TDP, iar 2070 doar 115W.Ai dispus de-o placă GTX 2070 unică pe planetă?...
600$/EURO/3000 Lei se incadreaza in pretul pentru performanta anticipata de ~20% peste 2080 Ti si 10+% sub 3080. Pentru performanta asta, 16GB VRAM si consum de max 300W, 3000 Lei ar fi un pret excelent. Va fi coada cel putin la fel de mare precum la 3080.Uite ca mai sunt si altii de aceeasi parere. ;D
Nu, dar trebuie sa facem distinctie intre TDP (consumul chipsetului) si TGP (consumul intregii placi).Ca fapt divers, 5700XT are 175W TDP, iar 2070 doar 115W.Ai dispus de-o placă GTX 2070 unică pe planetă?...
Nu am nimic in vedere. Vorbesc strict de eficienta dezastruoasa a cipului Navi in raport cu Turing. Este un decalaj pe care nu vad cum l-ar depasi, pentru ca si nVidia a trecut pe un nod mai performant si tot s-a dus peste 300W cu consumul.
Nu neg ca AMD se va apropia de 3080 la performanta, nu am de unde sti, dar am mari dubii ca o va face cu consum sub 300W.
TDP vs TGP
Intr-adevar, RTX 2060 are cei 115W pe care i-am vazut mai sus si 160W consum total. Nu stiu cum este la AMD in ultimii ani, insa modelele nVidia pot fi optimizate drastic la consum fara a se pierde din performanta cu un mic overclock la memorii.
Exceptand memoriile (pe care le-am lasat stock) toate valorile care se vad oscileaza de la secunda la secunda. Poti prinde un minim intr-o captura si un maxim in alta, stiam asta, dar nu stiam ca inca mai exista pe planeta un gamer autodeclarat care inca nu a aflat ca acele frecvente oscileaza chiar si cu sutele de megahertzi pentru a mentine tdp-ul in limitele setate. Reperul de care trebuia sa tina cont un fan rosu ca tine sunt graficele la consum si temperatura.
Iti fac un demo video, sa pricepi si tu.
Am renuntat de ani sa mai postez pe forumuri tocmai din cauza unora ca tine, melteni agresivi, autodeclarati atotstiutori dar cu diploma de habarnisti magna cum laude. M-a mancat undeva acum, oarecum surescitat de noile lansari, dar mi-a trecut.
1. Nu am spus pe nicaieri ca am overclockat memoriile. Am spus doar ca la acele setari am nevoie de doar +400MHz la memorii pentru a egala performantele stock.
V-ați încins tare văd
consum de 0.1V mai redus pe GPU si deci consum overall mai mic.Și la tine-i o ceață totală, dacă exprimi consumul în Volți!...
Asom, te-ai luat de bietul om degeaba :)
Ce a zis e perfect adevarat. Placile nvidia vin cu voltaj mare pe GPU, deci daca ii faci usor undervolt obti consum mult mai redus. Se vede si din pozele lui un consum de 0.1V mai redus pe GPU si deci consum overall mai mic. Asta a si vrut sa evidentieze.
Pe a mea de ex o tin cu 0.05V sub stock si frecventa cu ~50Mhz mai mare. Si in felul asta am consum/caldura mai mica, si perf usor mai mare :D
eu nu inteleg de cand se face undervolt placilor nvidia...
nu erau cele mai reci?
cele mai putin consumatoare?
undervolt-ul e doar specific placilor video AMD, nu nvidia!
ce-i cu voi??!
:))
Optimizare (DEX): Alegerea și aplicarea soluției (economice) optime (dintre mai multe posibile).
Nu e doar undervolt acolo, e si scadere a frecventei. Sunt curios ce consum ar avea cu doar cu undervolt
A mea de ex nu numai ca perimte undervolt la aceeasi frecventa, dar pot chiar face si OC cu undervolt. Mai exact stock are parca 1050mV si 1920Mhz max boost. Iar cu undervolt am 1000mV si 1980 max boost :)
@asom
@ Kodiak
@ slicker
@olds
@ cei care se autonumesc "fanii buzunarului lor"
ipotetic vorbind, sa spunem ca varianta 6800 va concura cu 3080
6800 va fi cu 10% mai slaba decat 3080, overall
6800 va avea un consum total de pana-n 300W
6800 va avea 16GB VRAM
6800 va fi la egalitate sau cu 50$ mai ieftina decat 3080
6800 va suporta un undervolt si mai bun decat 3080 (vad ca-i la moda UV-ul la nvidia acum, la AMD era naspa)
specs 3080 nu le mai trec pt ca se stiu
ce veti alege?
repet, ipotetic vorbind
Post Merge: 18 October 2020, 11:02
ma refer numai la perf in rastesrizare
nu bagam RT-ul in calcul doar pt ca exista 10 jocuri care suporta asta
driver-ele AMD la kansare vor fi la fel de stabile ca cele nvidia
Alegi memorie mai multa cand nu vrei sa schimbi placa video prea des, cam asta este unul din motivele cand se opteaza pentru AMD doar din punctul de vedere al specificatiilor.
wolfenste, tu te joci pe CRT in 1080p maxim, deci pot tine nici in 10 ani de zile nu o sa iti fie necesari 16GB vram :D
Pt mine au impact zero acei extra 6GB vram. Sunt absolut sigur ca jocurile in urmatori 2 ani de zile nu o sa consume mai mult de 8GB vram in 1440p.
Apropo, sa clarific, aleg placa mai ieftina atata timp cat ambele depasesc pragul minim de perf dorit de mine. De exemplu daca ambele au 100+ fps in orice joc, in 1440p, atunci da, o iau pe aia mai ietfina. Insa daca una are 70 si cealalta are 80 fps, atunci, pt doar 50$ in plus o iau pe aia care are 80.
Nu e doar undervolt acolo, e si scadere a frecventei. Sunt curios ce consum ar avea cu doar cu undervolt.
Apropo, sa clarific, aleg placa mai ieftina atata timp cat ambele depasesc pragul minim de perf dorit de mine. De exemplu daca ambele au 100+ fps in orice joc, in 1440p, atunci da, o iau pe aia mai ietfina. Insa daca una are 70 si cealalta are 80 fps, atunci, pt doar 50$ in plus o iau pe aia care are 80.
Gen platesc 100% mai mult pentru 10% in plus pentru ca vreau ce e mai bun si nu, nu e in zona etuziast.Trebuie sa intelegi ca fiecare are alta perceptie asupra banilor. Sunt unii pt care 1000$ sunt echivalentul a 100 lei pt tine. Deci cum tu ai da 100 lei in plus pt 10% extra perf, asa si ala ar da niste sute bune de euro.
Ciudat sa auzi asta de la un posesor de Radeon PRO DUO (1500$ MSRP)...
@asom
@ Kodiak
@ slicker
@olds
@ cei care se autonumesc "fanii buzunarului lor"
ipotetic vorbind, sa spunem ca varianta 6800 va concura cu 3080
6800 va fi cu 10% mai slaba decat 3080, overall
6800 va avea un consum total de pana-n 300W
6800 va avea 16GB VRAM
6800 va fi la egalitate sau cu 50$ mai ieftina decat 3080
6800 va suporta un undervolt si mai bun decat 3080 (vad ca-i la moda UV-ul la nvidia acum, la AMD era naspa)
specs 3080 nu le mai trec pt ca se stiu
ce veti alege?
repet, ipotetic vorbind
Post Merge: 18 October 2020, 11:02
ma refer numai la perf in rastesrizare
nu bagam RT-ul in calcul doar pt ca exista 10 jocuri care suporta asta
driver-ele AMD la kansare vor fi la fel de stabile ca cele nvidia
ok, olds, danke
vad c-a inceput o noua pagina, il bag aici in top
dar nu e cu atac la tine, mane, relax
ipotetic, ce nu intelegi?
specs-urile sunt bazate pe leak-urile actuale, ai vazut asta doar
presupui si tu ca nu-s prea departe de realitate
hai, da un raspuns, nu te incapatana :)
esti primul care refuza si nu inteleg de ce, sincer
ok, am inteles
vezi, nu vorbi tocmai tu de ipocrizie cand criticai consumul Vega de numa numa iar acum n-ai nicio problema sa dai acesti 700$, care de fapt sunt 800-900$, pe o placa video care consuma peste 300W
ok, ai luat un 3080 gratis cu un consum de peste 300W si totul este in regula si normal
ii vei face si undervolt, presupun
dar, bagam scuza c-are performanta la 300W
esti ipocrit
Ciudat sa auzi asta de la un posesor de Radeon PRO DUO (1500$ MSRP)...Am cumparat placa abia dupa 3 ani de la lansare SH la 33% din pretul de lansare, tind sa cred ca e ultima placa video dual gpu care s-a mai produs, cum colectionez astfel de placi am zis ca nu are rost sa ratez ocazia, am mers pana la Brasov sa o cumpar.
auzi, raspunsurile astea cui i le dai, de fapt? mie sau de fapt tie?
intorce-te la cei 300W si UV care nu mai reprezinta nicio problema pt ca nvidia e the best
ai de munca
vezi c-am pus pe pagina nvidia niste screen shot-uri cu voltaje si frecvente, poate te ajuta
n-am niciun dubiu ca dupa lansare toti care au nvidia, au avut de fapt si AMD...
https://www.techpowerup.com/273490/amd-navi-21-xt-seemingly-confirmed-to-run-at-2-3-2-4-ghz-clock-250-w
Astetofmind, nu cumva erai în Germania când ai dat 290 - ul cu accelero xtreme 3 pe el?
pai, esti, asom, mincinos, fals si ipocrit
din pacate, nu pot sa dau timpul inapoi pe vechiul CG ca sa-ti arat ce comentarii aveai tu impotriva consumului Vega
dar acum 300W sunt in regula pt ca peformanta, nu-i asa?
Am cumparat placa abia dupa 3 ani de la lansare SH la 33% din pretul de lansare, tind sa cred ca e ultima placa video dual gpu care s-a mai produs, cum colectionez astfel de placi am zis ca nu are rost sa ratez ocazia, am mers pana la Brasov sa o cumpar.Nu conteaza cat ai dat tu pe ea. Ideea e ca cineva a dat 1500$ (sau mai mult daca adaugam si TVA_ul) pe ea. Acel cineva este, dupa logica ta, un sarantoc, ca doar AMD e pt saraci.
narayanhd, tu chiar te faci ca nu intelegi? Problema Vega nu era consumul de 300W+. Problema era ca aveam alternativa care consuma 150W. Cumva e fix situatia pe care ai descris-o tu mai sus, doar ca s-au inversat producatorii. Avem GTX 1070 care consuma 150W, e cu 10% mai slaba si costa cu 50$ mai putin decat Vega 64. Deci zi-mi tu te rog, ce ai alege dintre astea 2 placi? Oh wait, deja stim ce ai ales...
Apropo, am asteptar cu f mari sperante lansarea Vega. Pe vremea aia aveam un R9 290 si visam la un Vega56. Insa cand in sfarsit s-a lansat la peste 3000 lei am zis pas, si am mers pe un GTX 1080 SH la 1800 lei (de la ASOM :P). A fost prima placa nvidia dupa vreo 8 ani de AMD-uri. Probabil ca in opinia ta am facut alegerea proasta pt ca am dat 1/2 din pretul unui vega64, pt perf mai mare si consum mai mic.
narayanhd, tu chiar te faci ca nu intelegi? Problema Vega nu era consumul de 300W+. Problema era ca aveam alternativa care consuma 150W. Cumva e fix situatia pe care ai descris-o tu mai sus, doar ca s-au inversat producatorii. Avem GTX 1070 care consuma 150W, e cu 10% mai slaba si costa cu 50$ mai putin decat Vega 64. Deci zi-mi tu te rog, ce ai alege dintre astea 2 placi? Oh wait, deja stim ce ai ales...
In cazul lui nu se pune. La el logica nu functioneaza. El cumpara DOAR AMD, oricat de cacat ar fi placile lor.
Si e si mai rau: aveam 1080ti la acelasi pret, cu TDP 250W ... care facea cercuri in jurul vega 64. Dar bineinteles el ar lua vega :D :D :D pt ca fuck logic.
wolfenste, de ce as vrea sa inclin balanta spre o anumita placa video?
Nu stiu tu de ce iti iei placi video, dar eu le iau pt ca ma joc pe calculator, asta imi face placere si ma relaxeaza. Deci este evident ca vreau ca aceasta activitate sa continue sa faca placere. Petrnu mine sa ma joc la 40 fps all max, sau 70 all min nu imi ofera placere. Deci DE CE as faca asta? Doar ca sa iau o placa video cu raportul/preformanta cel mai bun? Practic daca nu ma bucur de achizitie e ca si cum am aruncat banii aia pe geam.
Btw, RX 570 e placa cu cel mai bun rap pret/perf acum. Deci dupa logica ta ar trebui sa o iau pe asta, chair daca nu pot sa ma joc mai nimic cu ea in 1440p high details + high frame rate.
Legat de vram, daca 2 placi au acelasi pret, aceeasi perf si acelasi consum, da logic ca aleg ce are mai mult vram. Dar sa sau mai multi banii pe niste vram pe care garantat nu o sa-l folosesc, sau sa renut la perf, sau sa stau cu o aeroterma vara sub birou, e ceva ce nu face sens pt mine.
Oricum eu schimb placa video relativ des, din cauza high details + high fps, asa ca nu ma ajuta cu nimic ca peste 5 ani poate o sa fie necesari 16GB vram, ca pana atunci o sa schimb 2 placi video.
Post Merge: 18 October 2020, 15:03Gen platesc 100% mai mult pentru 10% in plus pentru ca vreau ce e mai bun si nu, nu e in zona etuziast.Trebuie sa intelegi ca fiecare are alta perceptie asupra banilor. Sunt unii pt care 1000$ sunt echivalentul a 100 lei pt tine. Deci cum tu ai da 100 lei in plus pt 10% extra perf, asa si ala ar da niste sute bune de euro.
Crezi ca omul ala nu e constient ca raportul pret/perf nu e deloc favorabil? Dar pur si simplu nu il deranjeaza. Are bani de top tier performance, de ce sa nu se bucure de luxul asta?
Pai tot asa puteai sa mergi pe un Vega 56 la 1500 de lei second hand, dar nu ai gasit. Ce vina are AMD? Ce merit are Nvidia?Exact. Nu are nimeni vina sau merit. Am mers pe ce am fost in buget si avea nivelul de perf dorit. Asta va e f greu voua sa intelegeti. Pe unii chiar nu ii intereseaza producatorul, ci aleg ce are sens atunci pt ei. Eu aplic aceleasi reguli cand aleg placa video, indiferent de producator. Nu le sucesc in asa fel incat sa imi justific alegerea.
In cazul lui nu se pune. La el logica nu functioneaza. El cumpara DOAR AMD, oricat de cacat ar fi placile lor.
Si e si mai rau: aveam 1080ti la acelasi pret, cu TDP 250W ... care facea cercuri in jurul vega 64. Dar bineinteles el ar lua vega :D :D :D pt ca fuck logic.
...Da tu un anunt de cumparare dupa logica ta si o sa vezi ca nici dreacu' nu te baga in seama.
Dupa logica mea ar fi trebuit ca gamerii sa cumpere RX 580 8gb vram in loc de 1060 3gb cand erau cam in aceeasi zona de pret. La fel, trebuiau sa cumpere RX 570 8 gb vram cand 1060 3 gb era la acelasi pret. Dar nu au facut-o, dovada ca mereu cand ma uitam la cele mai vandute pe emag sau alt site, 1060 era campioana. Baietii stiau de Nvidea, Nvidea isi luau. Btw, sunt mai multi in zona mid range decat acolo sus la tine ...
...
@asom
@ Kodiak
@ slicker
@olds
@ cei care se autonumesc "fanii buzunarului lor"
ipotetic vorbind, sa spunem ca varianta 6800 va concura cu 3080
6800 va fi cu 10% mai slaba decat 3080, overall
6800 va avea un consum total de pana-n 300W
6800 va avea 16GB VRAM
6800 va fi la egalitate sau cu 50$ mai ieftina decat 3080
6800 va suporta un undervolt si mai bun decat 3080 (vad ca-i la moda UV-ul la nvidia acum, la AMD era naspa)
specs 3080 nu le mai trec pt ca se stiu
ce veti alege?
repet, ipotetic vorbind
Post Merge: 18 October 2020, 11:02
ma refer numai la perf in rastesrizare
nu bagam RT-ul in calcul doar pt ca exista 10 jocuri care suporta asta
driver-ele AMD la kansare vor fi la fel de stabile ca cele nvidia
...Da tu un anunt de cumparare dupa logica ta si o sa vezi ca nici dreacu' nu te baga in seama.
Dupa logica mea ar fi trebuit ca gamerii sa cumpere RX 580 8gb vram in loc de 1060 3gb cand erau cam in aceeasi zona de pret. La fel, trebuiau sa cumpere RX 570 8 gb vram cand 1060 3 gb era la acelasi pret. Dar nu au facut-o, dovada ca mereu cand ma uitam la cele mai vandute pe emag sau alt site, 1060 era campioana. Baietii stiau de Nvidea, Nvidea isi luau. Btw, sunt mai multi in zona mid range decat acolo sus la tine ...
...
Am vandut un GTX 1080 FE la sfarsitul lui 2018 cu 1800 lei si era aia cu turbina. Am dat-o in ziua in care m-am decis sa o vand.
Filozofie dinasta de-a ta de doi lei e buna cand salivezi la ceva si n-ai bani sa cumperi.
GTX 1060 este pe primul loc in statisticile steam la distanta mare de RX 580. De ce? Pentru ca e performnta, consuma putin si are drivere beton. In plus, versiunea de 6GB suporta si raytracing. Cine cumpara AMD sunt in general persoane care dispun de un buget redus si sunt amatoare de chilipiruri.
Scuze wolfenste, am uitat ca nu se poate discuta civilizat cu fanboii amd.
Uita-te in oglinda sa vezi cine e "fanboiu absolut".
...Nu ma intereseaza placile video din zona aia de pret/performanta/tdp.
raspunde si tu la chestia de mai sus
...
@KodiaK ai spus ca ti-ai luat 2070S pt ca tu esti interesat de FPS-uri
anterior ai spus: "Insa daca una are 70 si cealalta are 80 fps, atunci, pt doar 50$ in plus o iau pe aia care are 80."
daca Vega64 e cu 14% mai buna decat 1070 si cu 50$ mai scumpa, dupa cum ai spus, de ce nu ti-ai luat Vega64?
mai ales ca tu esti interesat de FPS-uri, nu consum
te dai fecioasa maria si nu esti
4690K + Vega64, Snowrunner si MSFS2020, acum
nu le prea joc pt c-am monitor 4K
Uite de asta pari nvidiot. Spui AMD placa de cacat. Si daca pretul era cel corect din punctul tau de vedere nu mai era placa de cacat? Pretul era de cacat, nu placa. Pret asa cum era din cauza minatului!! Dar tu ai ceva cu placa si uite ca esti luat drept fan boy Nvidia.
...Eu am 8 jocuri in calculator: Far Cry 5, GTA V, Wolfenstein Youngblood, DOOM Eternal, AC Odyssey, Metro Exodus, BF V si Shadow of the Tomb Raider.
ti-am raspuns, raspunde-mi si tu, e ipotetic, nu conteaza de ce alegi X sau Y
...Uite ca eu pot sa-l folosesc.
Waw, suporta raytracing. Nici aia cu placi video cakumea nu-l pot folosi.
...
Eu am 8 jocuri in calculator: Far Cry 5, GTA V, Wolfenstein Youngblood, DOOM Eternal, AC Odyssey, Metro Exodus, BF V si Shadow of the Tomb Raider.
Dupa cum observi, jumatate din ele suporta Ray Trancing asa ca alegerea mea ar fi foarte simpla: As alege placa video care are suport ray tracing, drivere mai bune, tdp mai mic si raport pret/performanta mai bun.
@Trustme am inteles, nvidia. asta e tot. dupa cum am zis, e doar ipotetic. mersi pt rasp.
@asom ce-ai patit? iti iese fanboy-ismul nvidia din toti porii?
tu stii ca V64 s-a lansat la 500$?
tu stii ca 1080 s-a lansat la 600$?
tu stii ca 1080Ti s-a lansat la 700$?
tu stii ca V64 e concurenta 1080 si nu 1080Ti?
tu vezi ca V64 e cu 1% mai slaba decat 1080 iar 1080 costa cu 100$ mai mult?
aaa, asa cum e 3080 acum? lool
daca tu nu mi-ai raspuns, de ce sa-ti raspund eu?
tu nu mi-ai rasp., eu nu-ti rasp., e clar ca suntem amandoi super mega fanboy, nu? :))
Placa e de kkt comparativ cu concurenta. Vega era de kkt fata de 1080ti, orice ai spune. Bineinteles ca ne raportam la pret, ca daca nu ne raportam la nimic si discutam in vid nici o placa nu e de kkt. Da, am cu placa pt ca placa se vinde la un anumit pret. Daca o vindeau la un pret de 1070 nu as fi avut nimic, as fi zis: bravo, o placa decenta, merita cumparata.
Dupa cum am spus, cand discuti despe o placa discuti in context, concurenta, performanta, pret pentru ca nu existam in vid. Doar in vidul din capul fanboilor o placa e buna indiferent de pret sau performanta doar pentru ca e AMD.
Ar fi avut sens ce spui daca pretul ar fi fost asa fara sa isi vare minatul coada. In nici un caz nu era cum sustineai matale ca aveai minunatia pamantului in calculator in timp ce AMD era de cacat. Erau doua placi apropiate ca performanta, pretul era rupt din contextul gamingului iar lucrul asta nu iti facea mirobolanta din calculator mult mai semeata. Tot asa ai fi jucat si cu AMD.
uite la trustme cum l-am facut fanboy si cu toiate astea tot mi-a raspuns. a inteles despre ce-i vorba
dar tu, nu, pt ca esti fricos si fals
@astate Ce jocuri nu ti-ar fi mers cu AMD, hm?
Nu are mah legatura pretul. Daca pretul e prea mare el e de cacat. Placa e tot asa indiferent cat dai pe ea. Nu se schimba, asta zic. Daca maine 3080 o sa coste 5000 de euro asta nu o sa o faca o placa de cacat ci doar una neinteresanta pentru gaming. Poate o ia unu sa o puna in vitrina.
nu, asa ar face un om neutru
tu nu esti neutru
@asom ce-ai patit? iti iese fanboy-ismul nvidia din toti porii?Pamantul catre narayanhd:
tu stii ca V64 s-a lansat la 500$?
tu stii ca 1080 s-a lansat la 600$?
tu stii ca 1080Ti s-a lansat la 700$?
tu stii ca V64 e concurenta 1080 si nu 1080Ti?
tu vezi ca V64 e cu 1% mai slaba decat 1080 iar 1080 costa cu 100$ mai mult?
doar tu ai da 100$ in plus pt 1% performanta
doar tu ai da 200$ in plus si ai zice "ce rahat e AMD", de fapt o si zici
LOL! Cat de prost sa fiu sa aleg AMD in situatia asta?
Ok sa zicem ca ai avea de ales intre: 6900XT si 3080.
Diferente(ipotetic):
3080 in raster: 10-15% peste 6900XT
3080 in RT: 60-100% peste 6900XT
3080 cu DLSS: 100% peste 6900XT chiar si in raster, mai mult in RT.
3080 consuma cu 10-30W peste 6900XT.
3080 mai scumpa cu 10-15% decat 6900XT dar ai banii respectivi, nu pretul este problema principala.
Jocurile importante si care te intereseaza suporta si RT si DLSS.
Ce ai alege si de ce? Intrebare si pentru fanboii AMD.
Ca raport performanta pret sper ca realizezi ca 3080 este peste 6900XT (in exemplul ipotetic). Drivere:eu nu am avut probleme majore cu niciuna din firme, istoric se pare ca nvidia sta mai bine la capitolul drivere si cat de repede rezolva probleme cand sunt.
asom n-a mai rezistat si mi-a dat ignore :))Nu cred ca-i sarac, si-a luat RTX 3080.
saracu' de el
...
LOL! Cat de prost sa fiu sa aleg AMD in situatia asta?
Exact asta tot repet si eu, AMD este strict pentru saraci care vor sa cumpere cea mai performanta placa de la un anumit producatori, cum Nvidia scoate multe modele pe piata la preturi aberante nu ai cum sa-ti cumperi si sa stai linistit ca nu mai apare un Titan xyz la 6 luni dupa ce ai dat o caruta de bani pe cea mai buna placa a lor .
GTX 1060 este pe primul loc in statisticile steam la distanta mare de RX 580. De ce? Pentru ca e performnta, consuma putin si are drivere beton. In plus, versiunea de 6GB suporta si raytracing. Cine cumpara AMD sunt in general persoane care dispun de un buget redus si sunt amatoare de chilipiruri.
@asom completez, nu stiu dc ai vazut, am mai adaugat astaCred ca e 5-a oara cand iti explic de ce a sarit lumea de cur in sus. La Vega 64 aveai ALTERNTIVA. Dam cu bold si font 18, poate asa percutezi.
"pai nu sunt in nicio eroare. V64=1080 in perf. si pret si am ales V64
nvidiistiii au sarit in sus c-are ditamai consumul iar acum cand 3080 are ditamai consmul, totul e-n regula
cine-i fals si ipocrit acum?"
Cred ca e 5-a oara cand iti explic de ce a sarit lumea de cur in sus. La Vega 64 aveai ALTERNTIVA. Dam cu bold si font 18, poate asa percutezi.
Consumul este o problema si acum la 3080, doar ca momentan nu ai ce altceva sa iei in zona ei de performanta. De ce crezi tu ca se baga lumea la undervolt. Nu oare din cauza ca consuml de 300W+ ESTE o probelma????
Sunt sanse f mari sa avem o situatie similara acum cu RX 6000, care se zvoneste ca o sa aiba consum de ~250W, dar perf similara cu GTX 3080.
@asom completez, nu stiu dc ai vazut, am mai adaugat astaCred ca e 5-a oara cand iti explic de ce a sarit lumea de cur in sus. La Vega 64 aveai ALTERNTIVA. Dam cu bold si font 18, poate asa percutezi.
"pai nu sunt in nicio eroare. V64=1080 in perf. si pret si am ales V64
nvidiistiii au sarit in sus c-are ditamai consumul iar acum cand 3080 are ditamai consmul, totul e-n regula
cine-i fals si ipocrit acum?"
Consumul este o problema si acum la 3080, doar ca momentan nu ai ce altceva sa iei in zona ei de performanta. De ce crezi tu ca se baga lumea la undervolt. Nu oare din cauza ca consuml de 300W+ ESTE o probelma????
@asom completez, nu stiu dc ai vazut, am mai adaugat astaCred ca e 5-a oara cand iti explic de ce a sarit lumea de cur in sus. La Vega 64 aveai ALTERNTIVA. Dam cu bold si font 18, poate asa percutezi.
"pai nu sunt in nicio eroare. V64=1080 in perf. si pret si am ales V64
nvidiistiii au sarit in sus c-are ditamai consumul iar acum cand 3080 are ditamai consmul, totul e-n regula
cine-i fals si ipocrit acum?"
Consumul este o problema si acum la 3080, doar ca momentan nu ai ce altceva sa iei in zona ei de performanta. De ce crezi tu ca se baga lumea la undervolt. Nu oare din cauza ca consuml de 300W+ ESTE o probelma????
Si ce sa vezi, acum lumea nu mai are ALTERNATIVA. Nu e ca si cum AMD lanseaza in curand, ei au sarit pe Nvidia sa-i faca under_shit. Aveau o mirobolanta Nvidia high end ce mergea flawless cu potential imens sa-i mai duca un an doi dar au aflat ca a scos Nvidia seria 3xxx si dintr-o data nu le mai merge si trebuie sa faca upgrade. Upgrade tot cu Nvidia, ca d'aia scoate si Nvidia mai devreme, sa nu aibe simpatizantii alternativa... Stiu, stiu, ei nu sunt sarantoci si pot cumpara astazi o placa high end si sa isi vanda in paguba placa maine ca sa-si ia alta. Dar atunci zau ca nu mai are nici un sens discutia despre cumparaturi istete legate de pret/perf/whatever.
Daca lansa AMD asemenea placa acum, ar fi zis da'o dracului, astept Nvidia ca de la astia iar nu am ce se cumpar. pam pam.
Mama ei de alternativa, ba ai alternativa ba nu ai.
Si ce sa vezi, acum lumea nu mai are ALTERNATIVA. Nu e ca si cum AMD lanseaza in curand, ei au sarit pe Nvidia sa-i faca under_shit. Aveau o mirobolanta Nvidia high end ce mergea flawless cu potential imens sa-i mai duca un an doi dar au aflat ca a scos Nvidia seria 3xxx si dintr-o data nu le mai merge si trebuie sa faca upgrade. Upgrade tot cu Nvidia, ca d'aia scoate si Nvidia mai devreme, sa nu aibe simpatizantii alternativa... Stiu, stiu, ei nu sunt sarantoci si pot cumpara astazi o placa high end si sa isi vanda in paguba placa maine ca sa-si ia alta. Dar atunci zau ca nu mai are nici un sens discutia despre cumparaturi istete legate de pret/perf/whatever.
Daca lansa AMD asemenea placa acum, ar fi zis da'o dracului, astept Nvidia ca de la astia iar nu am ce se cumpar. pam pam.
Mama ei de alternativa, ba ai alternativa ba nu ai.
@astate Scrie deja in postarea mea ca nu e ca si cum ai fi avut o eternitate de asteptat si placa ta actuala inca merge. Scrie in postul meu ca dupa Nvidia ai fi asteptat. DIn leaks nu stii deja atat de mult incat sa te arunci.
@KodiaK, Fermi s-a vandut ca painea calda. Ziceti voi ce vreti, dar o mare parte din cumparatori sunt bs Nvidia, altfel nu ai cum sa explici de ce vinde mai bine mereu. Cine stia a criticat Fermi. Altii doar au cumparat-o.
Si vezi doamne, 3xxx e cea mai buna de pe piata ACUM iar eu vreau placa video ACUM. Bai sa fie, daca iese AMD mai cumparabila ce vor spune gusterii? Ca atunci cand si-au luat ei 3xxx nu aveau alternativa, adica putin timp in urma. Asta e... Dar daca atunci cand si-au luat ei placa ar fi fost AMD pe piata mai buna ar fi asteptat cu ardoare sa vada ce scoate Nvidia. BS bs bs, nu ma convingi.
Asta din pacate este un adevar cu care AMD se va confrunta multa vreme. nVidia este la mare distanta cand vine vroba de marketing si prezenta pe piata. Are un brand mult mai bine inradacinat, si grosul cumparatorilor habar n-au ca exista si AMD pe piata GPUs, sau daca stiu au idei preconceput cum ca AMD are driverii prosti, este placa saracilor, sau pur si simplu prefera sa nu isi bata capul cu research.
@KodiaK, Fermi s-a vandut ca painea calda. Ziceti voi ce vreti, dar o mare parte din cumparatori sunt bs Nvidia, altfel nu ai cum sa explici de ce vinde mai bine mereu. Cine stia a criticat Fermi. Altii doar au cumparat-o.
Si vezi doamne, 3xxx e cea mai buna de pe piata ACUM iar eu vreau placa video ACUM. Bai sa fie, daca iese AMD mai cumparabila ce vor spune gusterii? Ca atunci cand si-au luat ei 3xxx nu aveau alternativa, adica putin timp in urma. Asta e... Dar daca atunci cand si-au luat ei placa ar fi fost AMD pe piata mai buna ar fi asteptat cu ardoare sa vada ce scoate Nvidia. BS bs bs, nu ma convingi.E dreptul fiecaruia sa isi ia ce placa vrea cand vrea. La fel de bine poti spune si de cei care si-au luat RVII, nu? Ei vroiau ce e mai bun de la la AMD atunci. Nu a contat nici pt ei ca peste 5 luni AMD urma sa scoata o arhitectuta complet noua.
Asta din pacate este un adevar cu care AMD se va confrunta multa vreme. nVidia este la mare distanta cand vine vroba de marketing si prezenta pe piata. Are un brand mult mai bine inradacinat, si grosul cumparatorilor habar n-au ca exista si AMD pe piata GPUs, sau daca stiu au idei preconceput cum ca AMD are driverii prosti, este placa saracilor, sau pur si simplu prefera sa nu isi bata capul cu research.
E dreptul fiecaruia sa isi ia ce placa vrea cand vrea. La fel de bine poti spune si de cei care si-au luat RVII, nu? Ei vroiau ce e mai bun de la la AMD atunci. Nu a contat nici pt ei ca peste 5 luni AMD urma sa scoata o arhitectuta complet noua.
Si da, daca o sa se dovedeasca ca RX 6000 va fi mai rece, mai buna si mai ieftina, probabil ca or sa se zgarie pe ochi, dar e o chestie asumata.
ba da, asom si Kodiak, are dreptateCum a fost Vega in nici un caz nu ar fi fost mancat. Asta daor daca nu venea cu perf de 2080 la 300W+ consum.
daca AMD ar fi scos asa ceva, era mancat pe paine, cum a fost cu Vega
dar acum pt ca nvidia e-n situatia aia toti "consumul nu era o problema"Da, consumul nu a fost problema vega. Ci perf data la consumul ala.
nu sunteti consecventi
sunteti consecventi doar cand va convine voua (nu ma refer la voi doi, ma refer in general)
si, ca sa si demostrez nefanboy-ismul fanboy-lor nvidiaN-au nici o legatura testele tale cu faptul ca ai fost agresiv si toxic. Aia a rezultat din limbaj.
am facut facut toxic, agresiv, prost, imbecil pt c-am aratat niste teste in care 3080 a luat o ditamai bataie
despre asta vorbim
gasiti scuze ca mintea voastra sa se simta bine netinand cont de realitate
si mai si sunteti voi agresivi dar dati vina p-ala a aratat opusul a ceea ce voua va place sa credeti
nu ma refer la voi doi, in general
@astate
1. E integrata pentru ca ti-ai vandut placa. Nu tine argumentul asta.
De la 2 in jos: tu vorbesti iarasi de situatia ta personala si transpui asta ca fiind modul general. E irelevant pentru vanzarile in masa ca esti tu smecher si iti vinzi placa in profit. Daca o fi adevarat, sau doar spui asa. Cel mai pagubos este insa sa tot faci upgrade, de la o luna la alta ca te-ai razgandit si vrei alta placa. Ca de, nu or fi toti astate sa faca profit cumparand nou si vanzand sh ca altfel unde am ajunge? In general nu faci upgrade des, astepti sa ai oferta intreaga si apoi decizi, daca nu cumva esti sigur ca iei tot Nvidia si atunci da, de ce sa mai astept
@astateofmind
N-au nici o legatura testele tale cu faptul ca ai fost agresiv si toxic. Aia a rezultat din limbaj.
Legat de teste ti s-a spus doar ca sunt irelevante, si ti s-a explicat de ce. Tu ai fost ala care a sarit de cur in sus cand ti s-au aratat alte teste care arata fix contrariul. Cumva brusc, doar testele alea gasite de tine erau adevar absolut, si orice alt rezultat era demn de ignorat.
am vazut, asom, am si spus ca dintre toti tu ai fost singuru' care a sustinut asta
probabil ca n-ai vazut, dar am facut-o
iar kodiak cu textul ala arata ca ochelarii lui de cal sunt si mai mari si frumosi decat ai meiTestele CAD sunt irelevante pt ca nu se spun nimic despre perf in gaming. La fel de irelevante sunt si alea care arata nvidia peste amd.
e si normal si logic ca testele CAD sa fie irelevante, doar 5700XT a batut 3080 la fund
relevante sunt doar cele in care nvidia a batut AMD
Tine foarte bine, din moment ce nu am placa video.
nu cred ca te inteleg. Normal ca vorbesc de situatia mea, doar nu vrei sa iti dictez tie sau altora de ce sa isi cumpere si ce placa video sa-si cumpere. Nu. nu o transpun la general, iti explic de ce EU imi iau acum 3080 si nu astept dupa AMD, ce fac altii nu e problema mea.
iar kodiak cu textul ala arata ca ochelarii lui de cal sunt si mai mari si frumosi decat ai meiTestele CAD sunt irelevante pt ca nu se spun nimic despre perf in gaming. La fel de irelevante sunt si alea care arata nvidia peste amd.
e si normal si logic ca testele CAD sa fie irelevante, doar 5700XT a batut 3080 la fund
relevante sunt doar cele in care nvidia a batut AMD
Dar daca te face pe tine sa dormi mai bine noaptea, fie. AMD este campionul superm in CAD. Si toti aia care cumpara placi din seria Quadro sunt niste idioti neinformati pacaliti de masinaria de propaganda a nvidia.
Nu tine. Ti-ai vandut placa fix ca sa-ti iei alta cand a lansat Nvidia o generatie noua. Nu e ca si cand nu ai avea placa. E ca si cand vrei noua generatie Nvidia. Nu o vindeai daca lansa AMD. Asteptai Nvidia ca... asa fac baietii destepti cand lanseaza AMD, astepta si apoi decid. LOL
Aham. Asa sa zici cand faci AMD de cacat. Sa mentionezi ca e doar punctul tau izolat de vedere, nu e reprezentativ pentru situatia generala si de dictat de manariile tale istete. Ca pe logica asta a ta, daca eu mi-am luat AMD nou, sigilat la jumatate de pret fata de magazin, automat Nvidia e de cacat. LOL din nou.
Si acum spune-mi tu, pe bune:
de ce as astepta amd? Ce informatii avem care sa ma faca sa astept? Ce stii tu ca va aduce AMD atat de nemaivazut?
Insira niste motive logice. Asa cum ti-am insirat eu de ce nu astept.
geezas, mai sunteti multi de astia care stiu exact cum gandesc eu si de ce fac ce fac? Pe bune, v-a lovit pe toti prostia?
Am vandut placa pt ca stiam ca se lanseaza generatii noi de placi video si am vandut-o la momentul in care nu ma interesa nici un joc de pe piata si am luat si cel mai bun pret posibil.
bla bla
Prostia a lovit-o pe ma-ta. Daca adminul nu iti da ban ca insulti, nah, poate ca nu imi da nici mie.
Esti in eroare. Am cumparat nou si am vandut nou. Sigilat in cutie.
Pai asa spune coaie, abia acum are sens. Tu ti-ai vandut placa video, si stai pe integrata. Pentru ca iti trebuie placa noua, cumperi Nvidia pentru ca AMD nu e pe piata si o vinzi la cutie sigilata. Pentru ca iti trebuie dlss iei si vinzi Nvidia sigilata.
bla, bla
n-ai zis niciun motiv obiectiv, asom
cand spui ca esti obiectiv inseamna c-ai toate informatiile la indemna iar legat de RX 6000 n-ai nicio informatie concreta
sunt numai leak-uri
3 jocuri nu spun nimic despre perf. generala
Te portica un copil rasfatat. Pe dumy l-ai insultat de nenumarate ori, el nu ti-a raspuns cu acceasi moneda dar i-ai dat ignore, probabil ca sa nu-i mai vezi tabelele cu "leaks" ce iti contraziceau teoriile.
Hai sa te ajut eu wolfenste. Un motv real si obiectiv pt care asom trebuia sa astepte sa apara RX 6000 este urmatorul:
Daca AMD vine cu ceva cu adevarat periculos pt 3080 la pret mult mai mic, sunt sanse f mari ca nVidia sa scada pretul la RTX 3080.
Kodiak, iti recomanda sa te relaxezi putin, o iei pe urmele lui asom, vad caDaca iau AMD sa am grija sa nu cumva sa zic p-aici ca mori draq de ciuda. Si nu vreau sa te am pe constiinta :))
dupa cum am spus, va dati toti neutrii dar in gandul vostru "abia astept sa scoata ceva AMD ca nvidia si intel sa scada pretul"
mersi pt confirmare, Kodiak
n-aveam niciun dubiu
desi, dupa cum vezi... parca acest 3080 are toate hibele Vega-iBah esti nebun, am deja vu. Da chiar ca are toate hibele Vega. Perf de RTX 2070 si consum de 2x mai mare. Parca ar fi Vega 2.0.
Sper ca glumesc cu XTX-ul ala la 800$, ca altfel nu-i vad prea bine.
Da fix aceeasi logica. Te doare mintea frate...
Hai sa te ajut eu wolfenste. Un motv real si obiectiv pt care asom trebuia sa astepte sa apara RX 6000 este urmatorul:
Daca AMD vine cu ceva cu adevarat periculos pt 3080 la pret mult mai mic, sunt sanse f mari ca nVidia sa scada pretul la RTX 3080.
Cum ziceam si mai sus, voi ati fi in stare sa faceti fanboi nVidia si pe unul care isi ia AMD, in halul asta ati ajuns incat blamati si faptul ca AMD poate face concurenta.
Kodiak, wolf n-a dat de inteles asa ceva, asta vrei tu sa intelegi
ZVON ZVON ZVON
AMD va deveni noua nvidia, se pare
minunat
Navi 21 XT referinta: 320W
Navi 21 XT AIBs: 355W
Navi 21 XL: 290W
Eu nu raspund de ce sa astepte userul astate sa lanseze si AMD. Eu raspund de ce cumparatorul, in general, trebuie sa faca asta.
Si te luai de mine ca "consum, consum, consum" la nvidia??? Pai sa te iau la injuraturi din nou?
Uite ca al meu 3080 consuma ~250W.
S-a descoperit (Igor Lab) ca un model custom de RX 6900 atinge boost clock la 2577 MHz.Asta este foarte bine daca atinge, intrebarea este pentru cate milisescunde?
...
iar viseaza asom
Si cand pica si faza cu "performanta acum", nu-s buni driverii sau totusi totusi nu e arhitectura de calitate.
"dar nu prea au de ce sa se teama, nu se va arunca populatia pe ele la fel ca pe nvidia. Asta garantat."
"nu e un pct pentru a astepta sa cumpar AMD ci pentru a astepta sa cumpar tot nvidia ... dar mai ieftin."- suna a fanboy-isme cele doua propozitii de sus si tot tu te superi. pana s-ai 3080 ziceai ca esti neutru. tare nehotarat esti
...Cine vrea memorie multa cumpara Nvidia RTX 3090 cu 24GB VRAM.
daca tu vei tine pv minim 2-3 ani, jocurle evolueaza, iar cumparatorul stie c-o va tine si el inca 2-3 ani si asa s-au facut 4-6 ani in care jocurile evolueaza
d-asta va lua RX 6000 cu 16GB si nu va lua 3080 cu 10GB
Raytracing nu e nvidia only.
La ce cota de piata are, AMD nu poate sa impuna nimic pe PC. Tot ce poate face este sa adopte tehnologiile Nvidia.
...Cine vrea memorie multa cumpara Nvidia RTX 3090 cu 24GB VRAM.
daca tu vei tine pv minim 2-3 ani, jocurle evolueaza, iar cumparatorul stie c-o va tine si el inca 2-3 ani si asa s-au facut 4-6 ani in care jocurile evolueaza
d-asta va lua RX 6000 cu 16GB si nu va lua 3080 cu 10GB
AMD-ul o sa aiba 16GB VRAM (mult si prost) doar ca sa-si justifice pretul piperat, iar peste 2-3 ani o sa dati acatiste sa le vindeti ca nimeni nu o sa vrea placi video fara DLSS si Raytracing.
:-[...Cine vrea memorie multa cumpara Nvidia RTX 3090 cu 24GB VRAM.
daca tu vei tine pv minim 2-3 ani, jocurle evolueaza, iar cumparatorul stie c-o va tine si el inca 2-3 ani si asa s-au facut 4-6 ani in care jocurile evolueaza
d-asta va lua RX 6000 cu 16GB si nu va lua 3080 cu 10GB
AMD-ul o sa aiba 16GB VRAM (mult si prost) doar ca sa-si justifice pretul piperat, iar peste 2-3 ani o sa dati acatiste sa le vindeti ca nimeni nu o sa vrea placi video fara DLSS si Raytracing.
nu inteleg nimic din ce-ai zis aici
VRAM-ul AMD este mult si prost si piperat iar VRAM-ul nvidia este ok desi costa 1500$ (3090, ca tot l-ai dat exemplu)?
cum a zis si Kodiak, lucru pe care l-am uitat, dc un studio va dori sa ofere RT si pe AMD Vega, de exemplu, il vor oferi
tine de soft, nu de hardware
Post Merge: 23 October 2020, 07:11
ZVON ZVON ZVON
cica asa ar arata PCB-ul RX 6000
daca-i adevarat, va avea VRAM pe ambele parti ale PCB-ului tinand cont ca din zvonurile stiute de pana acum nicio PV n-are 8GB
probabil 6700 va avea 8GB VRAM
cine crede ca 10GB vor fi de ajuns pt 4K, deja MSFS 2020 ia fara probleme 12GB VRAM, joc pe care-l am, se imbata cu apa rece
de asemenea, in FireStrike Ultra, deci benchmark sintetic, RX 6000 a scos 11.500 pct; 3080: 10.600. adica RX e cu 8,5% mai buna
e benchmark sintetic - accentuez asta pt ca nu-i relevant pt perf. generala
Contrar asteptarilor, cererea pentru placi video performante e mult mai mare decat crede lumea. Am vazut pe undeva un grafic, trebuie sa-l caut.
Eu cred ca situatia nu va fi la fel de problematica ca si la Nvidia. Dar vedem. Sa nu uitam ca deocamdata pe 28 ei doar anunta placile. Release-ul efectiv inca nu stim cand e, va fi anuntat pe 28."AMD's Frank Azor, Chief Architect of Gaming Solutions, has confirmed that AMD's RX 6000 series will be hard launching on Oct 28."
Cand se ridica NDA-ul la benchmarks?
AMD Radeon RX 6800 XT “Big Navi” GPU Alleged 3DMark Benchmarks Leaked – Faster Than GeForce RTX 3080 at 4K, Slower In Port Royal Ray Tracing (https://wccftech.com/amd-radeon-rx-6800-xt-big-navi-gpu-3dmark-benchmarks-leaked-faster-than-geforce-rtx-3080-at-4k/)Dupa "destroy"-ul acela din titlu, e clar cu cine avem de-a face. Cand esti cu adevarat echidistant, nu folosesti cuvinte radicale doar in baza unui leak sau al unei surse neoficiale.
Adica nu e vorba despre 6900 XT, care e clar si mai performanta. ;D
Iar 3080 nu scoate nicicum 79xx in time spy extreme, al meu scoate ~ 8550 graphics score la 1800mhz undervolted la 800mv.
Legat de big navi, toate placile vor suferi la bandwidth pentru ca latimea maxima de bus va fi de maxim 256biti si cel mai putenic XT nu trece de 550GB/s. Cu mult sub cei 760GB/s ai lui 3080. Zvonistica neconfirmata spune ca vor folosi un cache special care va elimina penalizarile.
ZVON ZVON ZVON
Cica 3080 o sa fie egala in perf cu omoloaga AMD, cu DLSSu activat. Asadar DLSS nu poate fi considerat un plus. Ba din contra, e o fenta care faulteaza calitatea in loc de perf pura.
TDP mai mic fara bibileala (e tot zvon) si 6 gb vram in plus. De ce sa nu-ti iei ACUM placa mai buna AMD? De ce sa astepti sa faci upgrade la Nvidia pentru o placa mai buna? Hai ACUM cu AMD :)) rofl
mai @astate, tu te-ai repezit sa-ti iei Nvidia ca nu cumva sa fie amd mai buna si sa fii "obligat" sa o iei p'aia. Asa "neavand incotro" ramai cu ce ai luat, Nvidia adica. Cum era? Ai fost "obligat" sa-ti iei ce este pe piata pentru ca ti-ai vandut placa sa ramai pe integrata sa-ti iei Nvidia acum?
Zzonuri sunt multe. Vorbim dupa ce cedem benchmarks. EU sunt sigur ca acel zvon e foarte departe de realitate ;)
SI nici macar nu ai postat o sursa.
Si ti-am mai zis: daca AMD e atat de buna pot oricand sau sa returnez placa sau sa o vand cu profit.
Ti-am mai facut o data oferta si ti-o fac si acum: daca AMD este mai buna in rezolutie nativa 4k, la acelasi pret, decat 3080 in 4k cu DLSS eu nu mai postez aici. Daca nu este mai buna, renunti sa mai postezi aici? Aici insemnand pe forum, in totalitatea lui. Daca esti atat de sigur de AMD ar trebui sa accepti provocarea ;)
Dar nu o sa o faci pt ca stii si tu ce poate AMD. Si nici nu ai oo :D
Hai ca m-am plictisit de prostiile pe care le spui. gen "Asadar DLSS nu poate fi considerat un plus. Ba din contra, e o fenta care faulteaza calitatea in loc de perf pura. "
Ah, si te-am mai rugat o data sa imi insiri acele motive obiective, tot nu ai vrut. Vi cu pretexte gen "am scris dar mi s-a sters".
Pentru noi sunt zvonuri. Pentru tine insa sunt leaks ... Sau cum era? Nu ai zis ca nu mai astepti ca ai leaks?
Ok, asta er fi singurul punct valabil, daca intr-adevar tu esti mama zmeilor si vinzi mereu in profit.
Nu vad vreo oferta in asta.
Dar nu o fac pentru ca nu pun botu la toate.
Pai chiar Nvidia a spus ca in "rare" cazuri sunt probleme cu AA si imagine washed. Mai bine perf pura.
Pai tu n-ai motive sa astepti. Tu poti sa-ti cumperi placi video, masini, mobila acum si sa faci profit. Deci TU nu astepta. N-a ca ti-am raspuns iar. Profit puteai sa faci si vanzand si cumparand ceapa. Vinde-o si pe asta cu profit, acum, cat mai poti.
NU gigiele, motivele obiective nu tin de ceea ce fac eu personal, ti-a scapat? Si tot nu le insiri. Dupa cum spuneam, doar gura e de tine, la aberat. La altceva esti un mare zero barat.
La altceva esti un mare zero barat.
Pai hotaraste-te gigele odata. Vrei sa-ti raspund strict legat de cazul tau personal sau nu? Ca o tot invarti. Ca tu iei si folosesti si vinzi in profit tine doar de tine... ca tu iti vinzi placa si hopa, esti pe integrata trebuie sa-ti iei acum Nvidia iarasi tine doar de tine ...
Muritorii de rand insa, cum ti-am mai spus, nu-si vand placa acum sa constate ca au ramas pe integrata. Asteapta sa vada oferta intreaga, nu din zvonuri (adica leaks pentru tine). Ce vrei mai mult de atat?
Ce drac de motiv obiectiv mai vrei decat sa ai toata oferta pe masa cand ambele firme pun o oferta in aproximativ aceeasi perioada? E no brainer dar tu vrei mereu explicatii si zici ca nu-ti dau.
La orice altceva stai linistit ca iti dau ceata. :)
Cu 16 gb vram posibilitatea de bottleneck din cauza vram e mai mica decat cu 10. In ipoteza perf egala ca acolo asa discutam.
de pe techpowerup
Sa nu uitam ca cei 16GB sunt si mai lenti, si cu o latime de banda mult mai mica. Iar cache-ul ala infinity, daca exista, NU ARE 16GB. Nvidia poate utiliza TOATA memoria videa la o viteza MULT mai mare. AMD doar ce are in cache, restul la o viteza mult scazuta.
de pe techpowerup
Ti-am mai spus sa nu imi atribui afirmatii imbecile, nu asta am spus. Ca de obicei ca sa incerci sa iti faci un argument cat de cat coerent pornesti de la o afirmatie pe care nimeni nu a facut-o. Tipic.
Deci tu iti cumperi camion de 16 tone cand ai de transportat 6? Sa nu iti faci firma ca o bagi in faliment cat se poate de rapid.
Sa nu uitam ca cei 16GB sunt si mai lenti, si cu o latime de banda mult mai mica. Iar cache-ul ala infinity, daca exista, NU ARE 16GB. Nvidia poate utiliza TOATA memoria videa la o viteza MULT mai mare. AMD doar ce are in cache, restul la o viteza mult scazuta.
Ditamai vanatorul de placi video pe internet, combinatorul suprem, pradatorul suprem care profita de slabiciuna oamenilor care nu-si gasesc placa video nu poate sa scrie pe google " Navi 21 " .
Ditamai vanatorul de placi video pe internet, combinatorul suprem, pradatorul suprem care profita de slabiciuna oamenilor care nu-si gasesc placa video nu poate sa scrie pe google " Navi 21 " ?
Comparatia imbecila. Uite una mai buna. Intr-un bazin mai mare incape si mult si putin, dupa nevoie.
daca merita.
Sa nu uitam ca ne intereseaza rezultatul din teste.
ZVON ZVON ZVONO sursa pe zvon-ul asta? Nu de alta dar daca e adevarat asta ar insemna perf la nivel sau chiar peste 3090, la juma de pret, ceea ce e cam contra tot ce s-a leak-uit pana acum.
Cica 3080 o sa fie egala in perf cu omoloaga AMD, cu DLSSu activat. Asadar DLSS nu poate fi considerat un plus. Ba din contra, e o fenta care faulteaza calitatea in loc de perf pura.
O sursa pe zvon-ul asta? Nu de alta dar daca e adevarat asta ar insemna perf la nivel sau chiar peste 3090, la juma de pret, ceea ce e cam contra tot ce s-a leak-uit pana acum.
cum sa spui chestia de mai sus cand 2080 avea 450GBps latime iar RVII avea 1TBps si cu toate astea 2080 era mai buna cu 7% overall?Cu vreo 12% mai buna, RVII fiind mai apropiata de 2070 decat de 2080. Dar nu conteaza de unde va luati voi documentatia care va place, ci ca cea mai mare latime de banda la big navi se situeaza fix intre 2080 Super si 2080Ti.
Daca faci o corelare cu performanta, Radeon VII nu este ajutat defel de cei 16GB...Daca faci o corelare cu performanta, ar trebui sa-ti dai seama repede ca un fps mai mare va cere si mai mult vram, adica Radeon VII consuma peste 11GB VRAM la un fps mic. ;D
Daca faci o corelare cu performanta, Radeon VII nu este ajutat defel de cei 16GB...Daca faci o corelare cu performanta, ar trebui sa-ti dai seama repede ca un fps mai mare va cere si mai mult vram, adica Radeon VII consuma peste 11GB VRAM la un fps mic. ;D
In principiu tocmai s-au dat de gol, pentru ca, consumul de memorie creste impreuna cu performanta cipului grafic. Acum o sa avem RTX 3070 cu performanta de 2080 Ti, care 2080 Ti are nevoie de 10,5GB de memorie pentru 49fps, iar RTX 3070 va avea doar 8GB memorie disponibila ca sa scoata tot in jur de 49fps. Urmeaza sa vedem ce rezulta in review-uri din asta. ;D
"Nvidia have a habit lately of selling cards with Vram that falls short of the full potential.
Nu ai inteles nimic. RTX 2080Ti nu are nevoie de 10.5GB pt 49fps. Ocupa 10.5Gb de vram pt ca are disponibili atata. Chiar si spune acolo "allocating as much memory as it can" nu "as it needs". Deci aloca cat are disponibil, nu cat ar avea nevoie.
As you can see, both GPUs are running at high frames (41 fps vs 49 fps, with both GPUs running smoothly), with the game allocating as much memory as it can, which resulted in memory consumption of 7.3 GB on the RTX 2080 Super and 10.5 GB on the RTX 2080 Ti."
In principiu tocmai s-au dat de gol, pentru ca, consumul de memorie creste impreuna cu performanta cipului grafic. Acum o sa avem RTX 3070 cu performanta de 2080 Ti, care 2080 Ti are nevoie de 10,5GB de memorie pentru 49fps, iar RTX 3070 va avea doar 8GB memorie disponibila ca sa scoata tot in jur de 49fps. Urmeaza sa vedem ce rezulta in review-uri din asta. ;D
Comparatia ta e si mai si. Pentru ca te intereseaza si cat de rapid se poate umple si goli bazinul. Una la mana. a doua la mana nu are rost sa iei un bazin mare daca stii ca nu vei avea nevoie.
In special daca trebuie.Problema e ca tu gamerul habar nu ai daca trebuie.
Rezultatul din teste: RDR2, 4k, ULTRA, bla bla, 40FPS si 7.5GB VRAM ocupati. Cand vei avea nevoie de 16GB? Not too soon.Nu era vb despre vram aici. Era vorba ca incepusesi sa discuti depre latime de banda si alte minuni iar eu ti-am raspuns ca relevant e testul, cate FPS pentru o anumita rezolitie si anumite detalii.
Sunt situatii in care ar fi benefici 16GB VRAM? Indubitabil, dar in situatiile respective GPU-ul isi va da suflarea cu mult inainte de a atinge acel necesar. Probat. Testat.
In plus, argumentul cel mai bun: dezvoltatorii de jocuri vor fi interesati sa isi optimizeze jocurile in asa masura incat sa poata fi jucate in mod optim pe maximum de configuratii, cand ai majoritatea cu VRAM sub 10 nu te apuci sa optimizei jocul pentru 0.1% din cumparatori.
Cu cat placa e mai puternica cu atat vrei mai mult vram, sa nu ajungi in situatia ca procesorul grafic sa-ti duca dar vramul sa-ti faca bottleneck.
Perfect adevarat. Iar in momentul in care ai 2 modele identice (gen RX 480 4GB vs 8GB, sau GTX 1060 3GB vs 6GB) este logic sa alegi placa cu mai mult vram (daca pretul este ~egal). Insa in momentul in care nu ai doar modele diferite, dar ai si arhitecturi diferite, atunci nu calculezi perf dupa cantitatea de vram.
Pai am pomenit acolo de o comparatie intre RX 570 8 gb vram vs RX 580 4 gb vram. Pentru ca 4 gb vram au fost depasiti si pentru ca ambele placi s-ar fi descurcat dpdvd al puterii GPU, 570 a trecut in fata. 580-ul a facut bottleneck la vram. Deci, aplicatia e cea care decide cat vram si power ii trebuie. Unele aplicatii vor mai mult vram, altele vor mai multa putere. Daca ai multa putere vrei si mult vram ca sa rulezi cat mai multe aplicatii diferite fara bottleneck.
Da, dar momentul in care aplicatia care "decide cat vram si power" (neadevarat, placa decide cum aloca resursele, nu aplicatia, aplicatia doar spune de ce are nevoie, de exemplu exista tehnici de compresie pe care placa le poate folosi, chiar daca applicatia nu are habar de ele) va decide ca are nevoie de mai mult de 8GB este departe.
Applicatia NU decide ca are are "nevoie" de 8GB ci face request a niste asseturi, API-ul si arhitectura hardware vor decide cum fac acele asseturi accessibile applicatiei.
Funny. Renunta la vram pentru fabulosul feature DLSS dar nu-l pot folosi cand chiar ar fi nevoie pentru ca nema vram. Bai, da' ai placa video cu DLSS....
Funny. Renunta la vram pentru fabulosul feature DLSS dar nu-l pot folosi cand chiar ar fi nevoie pentru ca nema vram. Bai, da' ai placa video cu DLSS....
Fuck my life dude. Eu am acum optiunea utilizabila. Cu bune, cu rele dar cu mult mai multe bune. Tu vorbesti de pe pereti ca poate in 2 ani, cand deja am schimbat cel putin INCA o data placa video, voi avea nevoie de ...vram. (cu bold da?)
Ireal.
Ok, ok. Vrei Nvidia acum & forever. Se admite. Ai si bani sa o cumperi, iarasi bine.
Dar daca o schimbi peste, pardon, in doar 2 ani, atunci nu-mi mai pomenii de cumparaturi destepte pentru ca a cumpara des inseamna paguba (stiu stiu, o vinzi si tu in profit cum face toata lumea).
La fel de des schimba si placa AMD, stai linistit. Tu asta nu intelegi, ca vram-ul nu creste cu nimic perf placii video. Nu ma incalzeste cu nimic tona de vram, daca GPU-ul in sine nu mai face fata.
Uite-te la RVII, placa cu 16GB vram, cat a tinut? Nici 2 ani de zile. Deja se cere schimbata. Si avem aici exemplu concret de hyper meega fanboy, care manaca AMD pe paine, care o schimba. Pun pariu daca daca aveam disc asta anul trecut, fix la fel ziceai. 16GB vram, de viitor, smart choice, te tine 4-5 ani lejer.
Ca sa nu mai zic ca a venit chiar AMD cu placa la 8GB la fel de puternica. Pai cum vine asta, una poate cu 8GB ce poate celalta cu 16GB?
E valabil si pentru AMD, nu degeaba s-au decis sa ofere 16GB VRAM pentru placile din clasa superioara.Da, dar au sacrificat latimea de banda si paremise ca nici la DDR6X nu au acces. Daca cache-ul mult trambitat nu compenseaza treimea pierduta la latimea de banda, aleg la orice ora viteza in locul cantitatii.
Fac corelare cu rezolutia, unde, paradoxal, cei 16GB nu ajuta Radeonul acolo unde ar fi mai multa nevoie de ei: 1440p si mai ales 4K. Radeonul se apropie cel mai mult de 2070S in 1080p, unde cantitatea de memorie video necesara este mult mai mica.Daca faci o corelare cu performanta, Radeon VII nu este ajutat defel de cei 16GB...Daca faci o corelare cu performanta, ar trebui sa-ti dai seama repede ca un fps mai mare va cere si mai mult vram, adica Radeon VII consuma peste 11GB VRAM la un fps mic. ;D
Intrebarea nu este "cat este maxiimul pe care-l poate ocupa" ci "de la ce cantitate memoria nu este deajuns"2070S pastreaza aceeasi distanta fata de radeon in 1440p si 4K, semn ca cei 8GB ii sunt suficienti. Daca nu erau, ar fi trebuit sa vedem Radeonul peste 2070S macar in 4K. Si windows iti incarca, la butare, sub 2GB cand ai 8GB RAM si peste 3GB cand ai 16GB. Personal, am testat Battlefield V cu 8GB si probleme nu sunt. Daca o fi 1-2fps penalizare la amaratul meu de 2060, nu neg. Poate ca sunt, poate ca nu, insa cu 16GB RAM totalul ocupat trece de 13.000MB cu RT ON.
Ba aplicatia decide.
Au testat unii 3080, sectiunea de overclock, doar cu memoriile si doar cu cipul in oc si rezultatul a fost spor de performanta egal. Deci si cei 760GB/S limiteaza cipul si se cer cam multe de la acel cache de la AMD cand placile lor vor avea cel mult 550GB/s.
Tu nu intelegi cum functioneaza chestiile astea. Apllicatia NU decide "vreau 2GB de vram si 90% din GPU". Aplicatia spune "vreau patratul asta randat cu textura asta, aplicat paralax map-ul asta si aplicata iluminarea asta" (basic, ca vrea mai multe). Placa decide cum va executa acele comenzi si de ce resurse are nevoie si cum le foloseste, NU aplicatia.
Hmm, arata bine, poate fac schimbarea de la 3080 la 6900XT :DDaca 6900XT bate 3090, probabil o sa coste 1500$ (MSRP), 2000$ in primele cateva luni, si o sa consume cat un calorifer. Sa vedem daca faci schimbul in conditiile astea... ;D
Hmm, arata bine, poate fac schimbarea de la 3080 la 6900XT :DDaca 6900XT bate 3090, probabil o sa coste 1500$ (MSRP), 2000$ in primele cateva luni, si o sa consume cat un calorifer. Sa vedem daca faci schimbul in conditiile astea... ;D
Cyberpunk 2077 nu suporta (inca) AMD FidelityFX CAS, deci nu e nimic de comparat cu DLSS.
In mare parte sunt diferite jocurile care suporta FidelityFX fata de cele care suporta DLSS. Personal imi place mai mult oferta de jocuri cu suport FFX.Death Stranding le suporta pe ambele, si din ce am vazut FFX este sub DLSS Quality. Mai exact liniile subtiri (gen gard de sarma, fire de inalta tensiune) au parte de intreruperi, in timp ce cu DLSS sunt continue.
Ti-am repetat de mai multe ori, nu ma intereseaza MARCA. Niciodata nu m-a interesat. Pe mine ma intereseaza sa am performanta si facilitati la pret adecvat. Poate sa fie si Trinitron facut la Braila, nu are nici o relevanta cine si ce produce.
Daca pe de alta parte top of the line nu are concurenta si am banii de dat, da fara discutie aleg sa platesc banii aia pentru ca nu mai am 20 de ani sa fac compromisuri. Cand vreau ce e mai bun sunt dispus sa platesc pentru asta, pentru VR, pentru ultrahigh plug and play gaming. Nu mai am timp de buchiseala.
Parerile sunt impartite. Unii spun ca FFX ofera ceva mai multe detalii, uneori. Practic sunt greu de gasit diferente.
"With the Nvidia RTX 2060 Super, meanwhile, you might expect Nvidia's proprietary DLSS standard to be your preferred option to get up to 4K resolution at 60fps. Yet astoundingly, AMD's FidelityFX CAS, which is platform agnostic, wins out against the DLSS "quality" setting."
"FidelityFX CAS preserves a slight bit more detail in the game's particle and rain systems, which ranges from a shoulder-shrug of, "yeah, AMD is a little better" most of the time to a head-nod of, "okay, AMD wins this round" in rare moments."(arstechnica)
Stai asa, dupa ce s-a urlat pe aici ca doar 15 jocuri suporta DLSS vrei sa spui ca si mai putine suporta FFX? :D
In mare parte sunt diferite jocurile care suporta FidelityFX fata de cele care suporta DLSS. Personal imi place mai mult oferta de jocuri cu suport FFX.Death Stranding le suporta pe ambele, si din ce am vazut FFX este sub DLSS Quality. Mai exact liniile subtiri (gen gard de sarma, fire de inalta tensiune) au parte de intreruperi, in timp ce cu DLSS sunt continue.
test RT, 5700XT, neon noir
RT: Ultra
1080p - 7335 50-70FPS
1440p - 4540 35-50 FPS
fara niciun fel de DLSS, RT pur si curat
daca prezic un 1,6x perf. pt RX 6000, nu cred ca gresesc
cu, zice si baiatul in filmulet, benchmark-ului nu-i pasa ca-i AMD sau nvidia, e hardware agnostic
https://www.youtube.com/watch?v=JSMMKnpAs4s
nVidia asta face. Nu prea o sa vezi ceva open source de la ei. Da, e murdar si urat, dar astia sunt.
In schmimb pe mine, ca end-user, ma intereseaza calitatea si performanta, nu ma intereseaza de la cine vine. Este super ca a scos si AMD ceva similar cu DLSS, dar cumva tot ei au de suferit din cauza asta :(
Adica daca vrei numarul maxim de jocuri in care poti beneficia de FFX/DLSS, cam esti fortat sa iei nVidia. Pentru ca FFX merge si pe nvidia, dar DLSS nu merge pe AMD. Insa AMD nu isi perimta inca sa vina cu exclusivitati din astea.
mersi mult, andreeaki!
poti sa te uiti si la cat VRAM a luat, pls?
acum am vazut in filmuletul postat ca in 1080p cu ultra a crescut de la 4,5 pana la 6,1GB VRAM (min. 4)
iar in 1440p a crescut de la 4,5 pana la 7,2GB VRAM (min. 7:05)
test RT, 5700XT, neon noir
RT: Ultra
1080p - 7335 50-70FPS
1440p - 4540 35-50 FPS
fara niciun fel de DLSS, RT pur si curat
Pentru ca FFX merge si pe nvidia, dar DLSS nu merge pe AMD. Insa AMD nu isi perimta inca sa vina cu exclusivitati din astea.Merge doar functia de baza. AMD ofera in plus "features" indisponibile pentru Nvidia. Ca idee. ;D
Am bagat si eu testul.
RT Ultra in 1440p am scos 5988, cu 6.6GB vram ocupati.
Nu stiu fps-ul, ca nu am urmarit testul, si la final nu arata. Dar probabil cu 30% mai multe fps decat ai scos tu, calculand dupa scor.
Poti sa detaliezi un pic?
In ce sens merge doar functia de baza? Ce ai in plus pe daca ai placa AMD?
Ai placa Nvidia 3080, joaca-te cu FFX si vezi cum merge... Asta daca gasesti pe undeva optiunea... ;D
Jocurile care merg atat cu DLSS cat si cu FidelityFX merg cu DLLS doar pe placi Nvidia si cu FidelityFX doar pe placi AMD, nu poti aplica solutia AMD pe Nvidia si nici invers. ;DDeja nu mai inteleg nimic :o
(KodiaK) Pentru ca AMD le-a permis. "AMD has allowed FidelityFX to work on both Radeon and Geforce graphics cards."
Am avut VRAM-ul (8GB) plin in RAGE 2, daca tin bine minte. Nu plin de la intrarea in joc, dar se umplea dupa mai mult de o ora de jucat si la o vreme dupa ce se umplea incepea sa agate nasol. Trebuia sa ies din joc si sa intru din nou ca sa se "goleasca". Cel mai probabil poate fi o problema din driver, dar ideea ar fi ca daca aveam VRAM mai mult probabil se umplea in timp mai mult si trebuia golit mai rar. E foarte bine sa fie VRAM in exces fata de cat pare a fi nevoie.
Kodiak, am inteles
atunci, de ce in situatiile 1 si 2, RVII are acelasi FPS?
de ce in situatia 1, 3070 este mai slaba decat 2080Ti?
de ce in situatia 1, 2080S este mai slaba decat RVII si 1080Ti?
de ce in situatia 2, 3070 este la = cu 2080Ti?
de ce in situatia 2, 2080S este mai buna decat RVII?
de ce in ambele situatii, 1080Ti are aceleasi rezultate?
nu raspund pt ca nu vreau sa te influentez in vreun fel
dupa interpretarea ta, o voi spune si pe a mea
Kodiak, am inteles
atunci, de ce in situatiile 1 si 2, RVII are acelasi FPS?
de ce in situatia 1, 3070 este mai slaba decat 2080Ti?
de ce in situatia 1, 2080S este mai slaba decat RVII si 1080Ti?
de ce in situatia 2, 3070 este la = cu 2080Ti?
de ce in situatia 2, 2080S este mai buna decat RVII?
de ce in ambele situatii, 1080Ti are aceleasi rezultate?
nu raspund pt ca nu vreau sa te influentez in vreun fel
dupa interpretarea ta, o voi spune si pe a mea
pachet cu servetele - checkAi uitat vaselina ;D 8)
:))
Se stie de mult timp ca toate cele 3 placi despre care se discuta, RX 6900XT, RX 6800XT, RX 6800, vor avea 16GB memorie, toate trei avand acelasi cip, Navi 21, mai mult sau mai putin castrat (XTX, XT, XL).
6800 la 579$
not great not terrible
Fuck me 6900xt cu 15% mai buna la 1000 de euro ahahahha nvidia is ded.
Sunt curios consumul. Adica au acelasi consum si 6800XT si 6900XT? How? Nu e acealsi cip la ambele, doar castrat la 6800XT?Pe placile 6900XT au cipurile cu eficienta termica de calitate maxima si e posibil sa difere sistemul de racire.
Cei care zic faza cu concurenta pentru Nvidia cred ca nu ati observat ca benchmark-urile lor erau cu "Rage Mode ON" sau smart memory acces (deci doar pentru cei cu Ryzen 5000 si placi 500) - deci mai bine asteptati benchmark-uri reale, iar toate benchmark-urile erau fara Ray Tracing (care e ceva, avand in vedere ca e adaugat pe toate jocurile noi si chiar si pe console), si nu s-a facut nici o comparatie intre DLSS si Fidelity FX, sau Anti Lag Boost vs Nvidia Reflex. Sa nu mai vorbesc de codec-urile de streaming sau de un software asemanator cu cel oferit de Nvidia. Eu unul nu am fost deloc impresionat, si daca o sa aiba iar probleme cu drivere mi se pare chiar fail.Pana la urma si DLSS e tot o forma de boost. In fine, eu chiar sper sa fie performantele peste Nvidia ca Jensen merita sa simta putina presiune. Castigam toti :)
Pana la urma si DLSS e tot o forma de boost. In fine, eu chiar sper sa fie performantele peste Nvidia ca Jensen merita sa simta putina presiune. Castigam toti :)
Setarea pe calitate la FidelityFX ofera aceeasi performanta si calitate precum DLSS (calitate).
RT inca nu merita bataia de cap. Deja vad o placa AMD 6800 in jucarie. ;D
cat de nostime-s comentariile celor cu nvidia :))Inclusiv ale lui olds, nu?
asta face Smart Acces MemoryAi inteles perfect.
daca inteleg bine, proceosrul poate accesa VRAM-ul dupa placul lui
la fel, adica daca am inteles bine, acest SAM se activeaza din BIOS (parca asa a spus Herckleman in video)
daca-i asa, acest SAM nu tre' programat in joc
cred ca esti dezamagit, ca toti fanii nvidia, pana la urmaCu aceasta postare poti castiga lejer coroana regala a fanboysmului.
n-a prevazut nimeni ca-ntr-o generatie AMD va fi la egalitate sau, dupa teste, probabil cu -5% in urma, cand istoria spune altceva
am spus ca RTX-ul va trai cat timp ca pompa nvidia bani. AMD merge pe DXR, asa cum am prezis
am spus ca DLSS-ul va trai cat timp va pompa nvidia bani. AMD nici n-a pomenit de ineptia asta de DLSS. propabil Super Resolution, din cate am auzit
am spus ca AMD va merge pe direct Storage nu alta cgestie proproetara nvidia RTX I/O
cu directML n-am nimerit-o
si faza faina e ca AMD nici nu ma trebui s-arunce cu bani in stanga si dreapta, studiourile, daca vor sa traiasca, le vor implementa
ce stuido o sa stea sa zica "hai ca asteptam sa vina nvidia cu banii pt RTX, DLSS si RTX I/O"?
nvidia a fost o pierdere de bani si este o pierdere de bani in continuare
cumparatorul de nvidia cumpara bullshit pe paine
totul e fara sens pt voi cand AMD v-a rupt in fund
nu stiu de unde ai dedus tu ca DXR si RTX sunt total diferite ...Sunt le fel de diferite ca G-Sync si FreeSync :)
Sunt le fel de diferite ca G-Sync si FreeSync :)
Aparent au facut o prezentare care sa-i puna in avantaj, cu rage mode on, cu smart mem on, adica probabil 10-15% avantaj peste placa standard. Si fara nici un cuvant despre RT sau ML sau orice altceva. AMD fiind AMD :D2% - 13% cu o medie de 6-7%, deci si fara rage mode si smart mem on performanta e excelenta.
Si mai spunea cineva ca AMD FidelityFX CAS e implementat in 35 mai multe jocuri decat cele care suporta DLSS. ;D
...DXR este abrevierea de la DirectX Raytracing, adica un API (Application Programming Interface), o interfata software care nu are culoare politica (Nvidia, Intel sau amd).
am spus ca RTX-ul va trai cat timp ca pompa nvidia bani. AMD merge pe DXR, asa cum am prezis
...
Ce inseaman RTX?O placa video nVidia? ;D
Performanta buna la consum moderat (250W) si pret decent pentru RX 6800 (MSRP ~2850 Lei echivalent), disponibila din 18 noiembrie.Doar daca ai procesor din seria 5000 si placa de baza 500 pentru activarea smart acces.
Vad ca nu spun nimic de ray tracing, iar contra lui 3090 ofera un 6800XT cu smart si rage (overclocking). Multe detalii lipsa.
Hmmm, 6800 are un pret cam ciudat. ~70$ peste 3070 la cam aceeasi performanta in raster si most likely mult sub in RT?
La ce te astepti, omul vede rosu in fata ochilor.
Ok, aparent Watch Dogs Legion ocupa TOATA memoria 3080-ului din dotare, fully maxed out, in 2K nativ :))))))
Momentan nu e nici una o alegere mai buna vs cealalta, sau tu te iei exclusiv dupa benchurile producatorului? Numai dupa ce apar review-uri independente, si dupa ce vad pretrurile din magazine o sa pot veni cu o recomandare.
Ok, aparent Watch Dogs Legion ocupa TOATA memoria 3080-ului din dotare, fully maxed out, in 2K nativ :))))))Si cum merge, agata rau?
Si cum merge, agata rau?
Daca ai MSI Afterburner 4.6.2 sau 4.6.3 seteaza sa afiseze GPU1 Dedicated Memory Usage (foloseste o metoda mai precisa).
Vezi in Control Panel la System Information ce zice la Total available graphics memory, cati GB zice ca ai?
ideea-i ca VRAM-ul s-a umplut, si asta in 2K, nu 4K, Trustme
agatatul depinde si de codarea jocului
Si cu ce te incalzeste daca merge in 20fps, dar nu esti vram capped.Pe mine nu ma ingrijoreaza performantele AMD. Ei au fost tot timpul peste Nvidia si Intel. Pe mine ma ingrijoreaza driverele AMD.
...
Si cu ce te incalzeste daca merge in 20fps, dar nu esti vram capped.
oare cum as putea sa te mai iau in serios cand tu, desi ai vazut postul lui andreeaki, tu tot mentii ca VRAM-ul nu conteaza?Daca tu asta ai inteles din ce am zis eu e grav. Nici n-are rost sa ma obosesc sa iti explic, ca oricum o fac degeaba.
Si cu ce te incalzeste daca merge in 20fps, dar nu esti vram capped.
BTW, WD Legion nu merge ok nici pe 3090 (24GB vram), dar asta e mai putin important. Ce conteaza e sa ai vram tata.
Pe mine nu ma ingrijoreaza performantele AMD. Ei au fost tot timpul peste Nvidia si Intel. Pe mine ma ingrijoreaza driverele AMD.
Si cu ce te incalzeste ca ai power daca nu ai destul vram? Vezi? Tu mereu te intorci la varianta asta. Uite inca una de la mine, mai sunt inca doua. Aia in care ai si power si vram si aia in care n-ai de niciunele.Exact, nu ma incalzeste cu nimic nici asta. De asta am zis ca trebuie sa exista un balans intre cele 2.
Oricum, ideea e ca acum ai ALTERNATIVA. Sau n-ai? Ai LEAKS.... Cumpara si tu 4 Radeoane si pastreaza unul pentru tine. Ce mai astepti teste.
Exact, nu ma incalzeste cu nimic nici asta. De asta am zis ca trebuie sa exista un balans intre cele 2.
Dar cum apare cineva sa zica ca are vram-ul plin, imediat sare narayanhd, ca hurr durr, trebuie mai mult vram, nvidia de kkt. Cand intrebarea fireasca ar fi ok, esti vram capped, dar ce fps ai, nu cumva esti si GPU bound? Da, sunt all for vram, dar asta doar cand all else is equal. Cu ce ajuta 16GB vram pe RVII cand esti GPU bound si ai aceeasi perf cu RX 5700XT 8GB.
Parca tin un pic mai mult cu AMD, deh always had a thing for the underdog, dar om vedea.Daca tu zici, pana la urma iti dai seama ca vorbe fara actiune reprezinta exact Zero.
Si cu ce te incalzeste ca ai power daca nu ai destul vram?
Exact cum ma asteptam de la AMD nu are coreuri speciale pentru DXR care sa fie activate doar pentru acele sarcini, asta ma duce cu gandul la GCN si AsyncCompute care permitea diverse taskuri in acelasi timp.
Ar fi misto sa ai posibilitatea sa ai un GPU puternic doar pentru grafica si unul mai slab care sa se ocupe de DXR asa cum era cu PhysX la Nvidia.
Eu si acum folosesc un GT 630 pe post de PPU pentru PhysX cand joc Borderlands.
(Kherdan) Nu. Rage Mode ON lasa placa sa consume ceva mai mult pentru performanta maxima. Daca e OFF consuma mai putin, un fel de "ECO Mode". Nu necesita nimic deosebit la procesor si PB. ;DRadeon™ Software Performance Tuning Presets – Simple one-click presets in Radeon™ Software help gamers easily extract the most from their graphics card. The presets include the new Rage Mode stable over clocking setting that takes advantage of extra available headroom to deliver higher gaming performance.
Smart acces are treaba doar cu accesul procesorului la memoria video si are nevoie de procesor din seria 5000 si placa de baza 500.
Pentru a mia oara, vramul in exces nu ajuta. Nu tine loc de gpu power. Dar atunci cand nu ajunge devine problematic. Si e application dependent, cu un joc nu dovedesti nimic.
Jocul asta mirific, care nici macar nu e un joc propriu zis, era argumentul primordial a lui narayanhd ca ai nevoie de 16GB vram.
Corect, un joc nu dovedeste nimic, dar sa fie asa si cand vrei sa argumentezi ca more vram conteaza enorm.
Da poti sa faci o aplicatie sa aiba nevoie de 24GB+ vram si 10% GPU power, dar la ce ajuta ipoteza asta? Cand realitatea este cu totul alta si 99% din jocurile actuale se descura fara probleme cu 8-10GB vram. Da, nu m-ar fi deranjat cu nimic sa vina si nVidia cu 16GB vram pe placi, dar asta nu inseamna ca trebuie ignorate DOAR din cauza asta.
Pt mine, de ex, checklist-ul in alegerea unei placi noi este urmatorul: 1. performanta, 2. pret, 3. consum/features, 4. oc potential (poate ajunge usor pe locul 1 asta, daca una are 0% extra perf, si cealalta are 15-20% extra perf), 5. vram, 6. AIB implementation/racire/aspect general, 7. drivers, 8. bundle (jocuri incluse sau alte bonusuri).
Cred ca si tu ai un checklist similar in cap, pt ca nu cred ca ti-ai lua o placa mai slaba, mai scumpa, care consuma mai mult, are 0 potential OC, doar pt ca are mai mult vram :)
E exact acelasi lucru cu ce am spus eu. E doar o cehestiune de semantica care da mai bine la useri. La useri le suna mai bine daca li se pare ca fac ei OC decat daca le spui ca poti sa apesi un buton pentru downclock de care mai ales copii nu vor sa auda. E doar o chestiune de marketing. ;D(Kherdan) Nu. Rage Mode ON lasa placa sa consume ceva mai mult pentru performanta maxima. Daca e OFF consuma mai putin, un fel de "ECO Mode". Nu necesita nimic deosebit la procesor si PB. ;DRadeon™ Software Performance Tuning Presets – Simple one-click presets in Radeon™ Software help gamers easily extract the most from their graphics card. The presets include the new Rage Mode stable over clocking setting that takes advantage of extra available headroom to deliver higher gaming performance.
Smart acces are treaba doar cu accesul procesorului la memoria video si are nevoie de procesor din seria 5000 si placa de baza 500.
DUDE! Arata negru pe alb ca lipsa VRAMului iti fte performanta. Vreau sa imi arati 5 jocuri in care ai FPS scazut, pe orice GPU cu 4-6-8 GB RAM. Vreau sa vad si eu buba aia masiva care te face pe tine sa zici cu atata nonsalanta "devine problematic"
Ireal...
...sunt destule cazuri, mai ales ca avem placi identice in care difera doar vramul...Asta la AMD, la Nvidia nu prea sunt astfel de cazuri. La Nvidia, placile grafice cu VRAM mai mult au si procesor grafic mai puternic.
Polemicile pe tema Vramului seamana cu "marimea conteaza?" Pai da, dar degeaba o ai mare, daca este moale, mai bine mai mica si tare! :))
Voi reveniti mereu la "cum iti afecteaza performanta" .... "vram in plus nu-ti ajuta performanta". Nu despre asta e vorba. E vorba CE SE INTAMPLA CAND VRAM E DEPASIT. Placa se imprumuta la RAM si vei avea FPS drops, stuttering, o sa intepe, freezing, lag si alte bunataturi din astea despre care candva fanii Nvidia discutau cand vorbeau de calitate. Nu vrei sa-ti fie depasit vramul ca sa nu fii obligat sa reduci detalii ca sa scapi de problemele alea. De asta am spus problematic.
Voi reveniti mereu la "cum iti afecteaza performanta" .... "vram in plus nu-ti ajuta performanta". Nu despre asta e vorba. E vorba CE SE INTAMPLA CAND VRAM E DEPASIT. Placa se imprumuta la RAM si vei avea FPS drops, stuttering, o sa intepe, freezing, lag si alte bunataturi din astea despre care candva fanii Nvidia discutau cand vorbeau de calitate. Nu vrei sa-ti fie depasit vramul ca sa nu fii obligat sa reduci detalii ca sa scapi de problemele alea. De asta am spus problematic.
Inca o data mananci de pomana. Faci supozitii fara nici o baza reala. Arata-mi jocuri pe placi 1050/1060/2060/ rx-uri 5500/5600/5700 si tot mai in sus, arata-mi in jocuri, pe placi pentru GAMERI cu probleme descrise de tine ingame. Te-am rugat 5. Tu zbori pe langa exact ca musca.
Extrapoleaza tu acum, dupa research-ul facut mai sus prognoza pe urmatorii 2-3 ani pe placi precum 3070 lmao.
Procesul tau de gandire e senzational. Ca sa nu zic, ca lipseste cu desavarsire...
Pentru a mia oara, vramul in exces nu ajuta. Nu tine loc de gpu power. Dar atunci cand nu ajunge devine problematic. Si e application dependent, cu un joc nu dovedesti nimic.Cu teoria stai bine, dar spune-mi macar un singur model nVidia high end al ultimilor ani in care memoria a fost o problema. Unul singur! Latra astia acum cu memoria video cum au latrat si ca nu au cum sa ajunga procesoarele intel nonk de la 2.9 la 3.8GHz pe toate nucleele. Si au ajuns si inca ajung, chiar si mai sus.
Peste 3 ani, 8Gb va fi o gluma.Acum trei ani si restul zile, 1080Ti era supranumit "the fastest graphics card in the world". Acum e in pluton, istorie, depasit de placi video cu 8GB. Crezi ca cei 11GB l-au sabotat?
Inca o data mananci de pomana. Faci supozitii fara nici o baza reala. Arata-mi jocuri pe placi 1050/1060/2060/ rx-uri 5500/5600/5700 si tot mai in sus, arata-mi in jocuri, pe placi pentru GAMERI cu probleme descrise de tine ingame. Te-am rugat 5. Tu zbori pe langa exact ca musca.
Extrapoleaza tu acum, dupa research-ul facut mai sus prognoza pe urmatorii 2-3 ani pe placi precum 3070 lmao.
Procesul tau de gandire e senzational. Ca sa nu zic, ca lipseste cu desavarsire...
Cu teoria stai bine, dar spune-mi macar un singur model nVidia high end al ultimilor ani in care memoria a fost o problema. Unul singur! Latra astia acum cu memoria video cum au latrat si ca nu au cum sa ajunga procesoarele intel nonk de la 2.9 la 3.8GHz pe toate nucleele. Si au ajuns si inca ajung, chiar si mai sus.
Ce crezi ca vor face developerii de jocuri? Se vor limita la 3080 cu 10 gb?
Ce crezi ca vor face developerii de jocuri? Se vor limita la 3080 cu 10 gb?
Da, exact asta vor face. Vor adapta jocurile la hardware-ul disponibil pe piata. Daca majoritatea placilor video au 8-10GB, vor face in asa fel incat sa ruleze bine pe ele. Dar, pentru a 100 oara, niste GPU-uri cum sunt 3070 sau 6800 incep sa gafaie in 4K mult inainte de a se lovi de faptul ca AR MAI PUTEA procesa chestii daca ar mai avea VRAM in plus. Intelegi?
:))) Hahaha!!! :)))
Vai mai wolfenste cat de habarnist esti !!!
Te-ai uitat ca pisica in calendar la filmultul ala.
Tu nu vezi ca jocul ala a papat tot RAM-ul?
Cand ai doar 8GB RAM, orice joc agata ca naiba cand ajunge sa consume peste 7.3GB din memoria sistemului si nu mai are de unde sa aloce memoie pentru placa video.
Pai daca gafaie 3070 nu e de 4k, nu crezi? Ca aia il omoara, rezolutia. Vramul e omorat de dimensiunea texturilor in primul rand, nu de rezolutie. Meri mai jos cu rezolutia si joci pe ultra daca ai vram. Daca n-ai, nu joci nici acolo pe ultra, haha
"Even with 4K, I feel you'll run out of shading power long before memory becomes an issue."W1zzard
...Specialisti? Care specialisti?
Waw, ai descoperit problema. La secunda x si la secunda y intr-un film de 20 de minute. Vrei sa-ti mai dau filme in care este probata depasirea vram-ului? Vrei sati dau links cu parerea specialistilor? Chiar vrei sa dai click sa iesi de pe forum sa vezi ce se intampla in lumea reala?
Ce crezi ca vor face developerii de jocuri? Se vor limita la 3080 cu 10 gb?
Da, exact asta vor face. Vor adapta jocurile la hardware-ul disponibil pe piata. Daca majoritatea placilor video au 8-10GB, vor face in asa fel incat sa ruleze bine pe ele. Dar, pentru a 100 oara, niste GPU-uri cum sunt 3070 sau 6800 incep sa gafaie in 4K mult inainte de a se lovi de faptul ca AR MAI PUTEA procesa chestii daca ar mai avea VRAM in plus. Intelegi?
Eu ii zic sa imi dea exemple de placi video pentru gameri, el se rezuma la echivalentul unui onboard lmao. Fml. 20 de pagini futute aiurea pe un non-issue :) yep. it makes sense. Intre timp 99,99% din placile actuale pentru gaming sunt perfecte cu 6-8-10 GB de ram pentru cel putin 2 ani.
Pentru ca console. Asta nu pricep dum dumsii. Cand nenorocitele astea de console vor evolua, atunci o sa conteze si VRAM-ul. pana atunci prefer oricand putere bruta.
Exact, te-ai prins aia il omoara. Dar cred ca pierzi mai mult coborand rezolutia decat jucat pe high in loc de ultra. In plus, de ce nu gandesti asa si la vrma? nu iti ajunge vramul dai o textura, un efect mai jos si iti ajunge. In timp ce te joci cu restul pe ultra in rezolutie maxima.
Scenariu: Un joc la 4K si cu texturi ultra nu poate rula la un framerate dorit. Unde e problema? Nu mai are VRAM, sau GPU-ul nu poate procesa? Ar ajuta cu ceva in scenariul asta mai mult VRAM un 3070? Sau daca in loc de 16GB ar fi 8GB pe 6800, s-ar pierde din fps?
...Specialisti? Care specialisti?
Waw, ai descoperit problema. La secunda x si la secunda y intr-un film de 20 de minute. Vrei sa-ti mai dau filme in care este probata depasirea vram-ului? Vrei sati dau links cu parerea specialistilor? Chiar vrei sa dai click sa iesi de pe forum sa vezi ce se intampla in lumea reala?
Tu nu vezi ca nu ai pic de discernamant si te-ai umplut de penibil?
Testeaza tu daca daca vrei sa ne convingi ca ai dreptate.
PS5 are Sytem memory, adica vram+ram. Din acel system memory probabil ca undeva pe la 8GB va fi folosit ca vram, restul fiind folosit ca ram.
Nope. Mai bine dai mai jos rezolutia SI dimensiunea monitorului (ca degeaba ai rezolutie mare daca si monitorul e foarte mare) si joci pe detalii full.Deci ne luam toti cate 2-3 monitoare de diverse dimensiuni, ca sa avem cum sa le schimbam :). Eventual de sub 20" ca sa nu vedem pixelii cat casa la rez mici.
Scenariu: daca jocul e facut sa mearga ok pe 10 gb si tu ai doar 8 o sa imprumute RAM si o sa-ti strice cheful de joaca.Aici e problema ta. Nu exista joc facut sa ceara 10GB, si nici nu o sa fie prea curand. Un joc dureza ani de zile sa il faci, nu 2-3 luni. Deci daca se apuca cineva sa faca un astfel de joc AZI, o sa il scoata prin 2023-2024, cand oricum placile de acum o sa fie cam cum e acum seria 10.
Asa si? Nu ai citit unde am scris de ce sa nu pui problema asa? Consola e hardware specializat cu software optimizat. PC ul e generalist, e pachet de random components si mai trebuie sa ruleze si o portare de software.
Deci ne luam toti cate 2-3 monitoare de diverse dimensiuni, ca sa avem cum sa le schimbam :). Eventual de sub 20" ca sa nu vedem pixelii cat casa la rez mici.
Stiu ca tu esti fan CRT si ca acolo poti schimba rez cum vrei, dar pe LCD altceva afara de native rez arata ca draq. E ca si cum ai sta cu texturile pe low la native res.
...Vezi ca Nvidia a rezolvat si problema asta.
...dar pe LCD altceva afara de native rez arata ca draq. E ca si cum ai sta cu texturile pe low la native res.
...
Aici e problema ta. Nu exista joc facut sa ceara 10GB, si nici nu o sa fie prea curand. Un joc dureza ani de zile sa il faci, nu 2-3 luni. Deci daca se apuca cineva sa faca un astfel de joc AZI, o sa il scoata prin 2023-2024,
AMD Publishes More Radeon RX 6900 XT, RX 6800 XT & RX 6800 RDNA 2 Graphics Card Benchmarks in 4K & WQHD (https://wccftech.com/amd-radeon-rx-6900-xt-rx-6800-xt-rx-6800-gaming-4k-wqhd-benchmarks/) ;D
Vedeti ca rezultatele sunt cu AMD Smart Accesss Memory ON. Pentru sistemele "comune" mai trebuie scazut ~6% in medie. Ramane destul oricum.Tot nu vad nimic legat de ray tracing. Tot se lalaie cu limitarea memoriei de vreo zece pagini, insa nimeni nu spune nimic de lipsa oricaror informatii legate de un RT care va fi must use in si in jurul caruia s-a creat deja un hype. Vad insa ca e bagat sub pres de fanii rosii si scoasa la inaintare o limitare vRam care nu a existat si nici nu va exista la vreo placa high end nVidia.
Nu vad de ce ai juca cu DLSS OFF? Mai ales ca nu e vorba de DLSS 1.0.Bazat pe un leak care miroase rau. Mie nu imi da pace nici cele 5 fps-uri, minim la GPU, in ambele rezolutii. Nu stiu ce a facut ala acolo, nici daca intr-adevar e vorba doar de 6800, insa am revazut tot filmul lansarii oficiale si nu am gasit nimic legat de ray tracing in afara faptului ca va fi implementat. Nicio comparatie, nimic. Daca 6800 cu 60 nuclee rt ale lui bate 3070, inseamna ca 6900XT, cu cele 80 nuclee rt, face ceva cel putin pe 3080. Nu era ceva sa bage sub pres, dimpotriva, ori ei au tacut ca mutu.
Oricum, chiar si cu DLSS ON, in 1440p, 3070 e cu doar 5 fps in fata lui RX 6800. Not bad at all.
In 4K e mai mare avansul pt 3070 (probabil din cauza VRAM-ulul mai mic ;D), dar oricum nu prea conetaza, ambele fiind sub 60fps-uri.
Aici e problema ta. Nu exista joc facut sa ceara 10GB, si nici nu o sa fie prea curand. Un joc dureza ani de zile sa il faci, nu 2-3 luni. Deci daca se apuca cineva sa faca un astfel de joc AZI, o sa il scoata prin 2023-2024, cand oricum placile de acum o sa fie cam cum e acum seria 10.
Am mai auzit asta. Nu exista joc sa depaseasca acum si nici in viitorul apropiat ... In mai putin de o luna a depasit.Tot nu m-ai convins sa cumpar amd cu 16 GB. Bazat pe ce vad in poza (aproape 3GB vRAM pentru low la rezolutia 1176 x 664), e clar ca cei 16GB ai Radeonului nu sunt suficienti pentru pretentiile mele si voi cumpara 3090 24GB pentru a fi sigur ca pot juca fara stuttering in 1080p cu detalii high. Poate ca apare Titan Ampere, cu 48GB, si se deschide poarta si pentru detalii ultra la aceeasi rezolutie.
Exista joc ce atinge 10 gb. Sunt multe lucruri intr-un joc pe care sa le modifici din mers. Nu e mare branza sa faca texturi mai mari in mai putin de o luna. Adu-ti aminte ca pentru Skyrim au lansat imediat ceva DLC cu texturi mai mari. Cata vreme sunt pe piata placi video high end cu cel putin 16gb, developerii se vor adapta imediat. Cine nu are sa reduca detaliile sau sa cumpere ce trebuie. Cand AMD a venit cu multe cores performante au aparut imediat jocurile ce merg mult mai bine pe cpu cu mai mult de 4 cores. Cand Nvidia era singura in high end putea sa dea cata memorie vrea si sa fie ok. Acum nu mai depinde doar de ea.
Oricum discutia e inutila, ai alternativa si nu ai de ce sa-ti bati capul daca trebuie sau nu mai mult de 10.
Tot nu m-ai convins sa cumpar amd cu 16 GB. Bazat pe ce vad in poza (aproape 3GB vRAM pentru low la rezolutia 1176 x 664), e clar ca cei 16GB ai Radeonului nu sunt suficienti pentru pretentiile mele si voi cumpara 3090 24GB pentru a fi sigur ca pot juca fara stuttering in 1080p cu detalii high. Poate ca apare Titan Ampere, cu 48GB, si se deschide poarta si pentru detalii ultra la aceeasi rezolutie.
Ai milioane de review-uri de unde poti trage usor concluzia ca vram in exces doar dauneaza portofelului, dar tu insisti sa tot dai cu capul in poarta.
Si inca ceva: parca vad ca din astia care lauda AMD pe aici niciunul nu va lua 6900XT ... saracilior :D :D :D
Si inca ceva: parca vad ca din astia care lauda AMD pe aici niciunul nu va lua 6900XT ... saracilior :D :D :D
Acum intelegi de ce tot incercam sa va convingem sa luati placi video AMD.
Pentru majoritatea fanilor AMD seria noua a depasit cu mult bugetul alocat pentru placa video.
1. Ai zeci de video pe youtube cu ceea ce se intampla cand memoria video e depasita. Alte zeci in care vezi jocuri ce ating 10 ACUM.1. Inca o data te rog sa dai exemplu concret de placa video high end care este trasa in jos de lipsa memoriei video. Daca tampenia aia joc mi-a ocupat 3GB pentru low intr-o rezolutie de la inceputurile windows-ului, nu inseamna ca acei 3GB sunt accesati direct de gpu. La detaliile si rezolutia aceea si 512MB sunt arhisuficienti, insa trebuie sa fi cap patrat la patrat sa nu intelegi niste chestii basic.
2. Ai doua placi video in aprox aceeasi perf si pret dar una mai darnica cu memoria. Tu ai insa doua variante. Ori iei Nvidia cu +20 gb vram ca sa fii deasupra fraierilor, ori iei Nvidia cu 10 ca nu-i nevoie de mai mult.
Nu vedeti ca Nvidia impinge marketingul spre placi de 800-1000€?Cat de fanboy trebuie sa fi ca sa debitezi asemenea ineptii? Concurenta e mare la voi, vad.
Plus la 500€ iti vinde o placa depasita deja cu 8Gb. Mi se pare o excrocherie. Aia nu este scumpa? Cat de fanboy trebuie sa fii sa dai 500€+ pe un GPU cu 8Gb? Jesus!
Cat de fanboy trebuie sa fi ca sa debitezi asemenea ineptii? Concurenta e mare la voi, vad.
Daca tu crezi ca AMD va vinde ieftin daca devin lideri de piata, te inseli amarnic. Au vandut ieftin pana acum pentru ca au oferit stifturi cu multe lipsuri, nu ca le-ar pasa de tine.
Cat priveste placa aceea "depasita deja", te uiti frumos la review-uri, compari cu altele din zona ei de pret, si alegi. Daca ea e depasita si ofera aceeasi performanta ca alta, si aceea e depasita. Tot vi se explica ca pana la limitarea memoriei intervine limita puterii de calcul, va intra pe o ureche si iese pe cealalta fara sa intelegeti nimic din lumea reala. Cu ce te ajuta se demonstrezi ca exista limitarea memoriei daca atingerea ei duce la gatuirea procesorului grafic de nici 20 fps nu mai poate randa?
Acum intelegi de ce tot incercam sa va convingem sa luati placi video AMD.Asta e o abordare complet gresita. Nu e cazul sa "incercati sa convingeti pe cineva ce sa cumpere". Nu e problema voastra despre ce cumpara altcineva.
Tu tot nu ai inteles cum e cu memoria ocupata.
Ai poza aici cu 17GB ocupati intr-un joc. Dovada, dupa logica ta, ca nici 16GB nu sunt de ajuns si e nevoie de 24 ...
Oricum, pentru mine personal mai e un avantaj: am un 3080 in calculator ACUM si nu trebuie sa astept o luna doua pt a ma bucura de ea.
Si inca ceva: parca vad ca din astia care lauda AMD pe aici niciunul nu va lua 6900XT ... saracilior :D :D :D
Si fara gluma: da, parca vad ca fanboii care se dau de ceasul mortii ca 16GB este minimul necesar pentru 1080p nu isi vor lua prea curan placi video ;)
In rest, ramane cum spuneam: asteptam benchmarks ...
Eu ma cam indoiesc ca sporul de perf dat de SMA e asa de mare. Sunt tare curios ce o sa zic revieweri independenti.Niste comparatii poti face chiar acum.
Eu ma cam indoiesc ca sporul de perf dat de SMA e asa de mare. Sunt tare curios ce o sa zic revieweri independenti.Niste comparatii poti face chiar acum.
Chiar daca guru a testat in DX12 si cu procesor intel, astia de la amd i-a oferit lui 3090 scorul lui 3080. Scorul real al lui 3090 a fost furat de Statul Paralel. ;D ;D ;D
Ideea e ca musai sa cumperi ryzen 3 si placa de baza 500, deloc ieftine, pentru... ???
Completare: 3080 a primit scorul lui 3070, cred. Sa zica mersi!
"AMD has made a commitment to stick to industry standards, such as Microsoft DXR or Vulkan ray tracing APIs. Both should slowly become more popular, as the focus goes away from NVIDIA’s implementation. After all, Intel will support DirectX DXR as well, so developers will have even less reason to focus on NVIDIA’s implementation."(videocardz)
Gasesti aici benchmark la BFV pe DX11:Deci, avem pentru 3090 de la terti:
https://www.techpowerup.com/review/msi-geforce-rtx-3090-gaming-x-trio/7.html
Bineinteles ca in acest benchmark placile Nvidia scot un scor mult mai bun. Poate 5900x nu-i face fata lui i9 9900k. ;D ;D ;D
Diferenta fiind ca nvidia va putea utiliza toate acele standarde, fiind open.Exact cum a fost OpenCL pentru CUDA. Desi fanii amd il leaga de amd pentru ca este singurul pe care il suporta, opencl este rezultatul colaborarii nVidia cu Apple. AMD nu avea nicio legatura, era la stadiul de igp in chipseturi, ATI insa a profitat de poarta deschisa dar OpenCL a fost dintotdeauna sub CUDA. Oricum, OpenCL este suportat de toate cardurile nVidia.
Adica la nvidia ai RTX+RT, DLSS + DirectML, etc etc.
A inceput si campania de marketing pentru memorii:
https://www.dsogaming.com/news/nvidia-geforce-rtx3080-godfall-4k-ultra-12gb-vram/
A inceput si campania de marketing pentru memorii:
https://www.dsogaming.com/news/nvidia-geforce-rtx3080-godfall-4k-ultra-12gb-vram/
Deja 12 gb? Si nici nu a ajuns placa pe piata. Cine ar fi crezut? o_O Nu mai stiu cine spunea ca o placa cu 10gb e depasita inca de la lansare in 2020.
Deh, asa se intampla cand pledezi impotriva propriului interes fara sa-ti dai seama.
RTX 3080 este depasit acum doar de RTX 3090.
A inceput si campania de marketing pentru memorii:
https://www.dsogaming.com/news/nvidia-geforce-rtx3080-godfall-4k-ultra-12gb-vram/
Deja 12 gb? Si nici nu a ajuns placa pe piata. Cine ar fi crezut? o_O Nu mai stiu cine spunea ca o placa cu 10gb e depasita inca de la lansare in 2020.
Deh, asa se intampla cand pledezi impotriva propriului interes fara sa-ti dai seama.
AMD Radeon RX 6800 XT - AotS - Crazy 4K (https://twitter.com/TUM_APISAK/status/1328290279783235586)
daca seria 6000 va permite un oc de 100-200MHz pt GPU, cred ca toata linia nvidia va fi batuta fara drept de apel
Daca asta e adevarata putere a AMD in RayTracing, e cam sumbra treaba. Adica e sub 1st gen RT-ul nvidia :(
6800 XT cu 67 fps. Iar un RTX 2060 cu (6GB vram) scoate 64 fps.
De asta nici nu ti-au raspuns la intrebarea ta cu ce prefera, 20-30% perf in plus sau mai mult vram.
Ca idee in Metro Exodus un 3080 scoate in 1440p, 101fps fata de 6800 XT cu 67 fps. Iar un RTX 2060 cu (6GB vram) scoate 64 fps. Sursa: TPU (https://www.techpowerup.com/review/nvidia-geforce-rtx-3080-founders-edition/37.html)RTX 2060 scoate 38.4 fps cu RTX ON, cf. acelui grafic.
Daca asta e adevarata putere a AMD in RayTracing, e cam sumbra treaba. Adica e sub 1st gen RT-ul nvidia :(
RTX 2060 scoate 38.4 fps cu RTX ON, cf. acelui grafic.Oh da. Ce chior am fost, nici n-am vazut ca erau si cifre cuRTX OFF.
Problema insa este ca AMD a testat pe ultra, iar TPU testeaza la maximum posibil. Metro Exodus mai are un preset peste Ultra: Extreme. Diferenta dintre 3080 si 6800XT ar putea fi chiar mai mare, dar trebuie luata in considerare si metodologia de testare.
Sa nu uitam ca testele au fost pe un Zen 3, cel mai probabil cu SAM activat. Inca cateva procente in minus pt cei care nu fac upgrade la platforma.
Ray Tracing si 4K.
S-a batut atat de mult darabana pe memorie si exact acolo unde era nevoie de ea scartzaie Radeoanele. In 4K.
AMD Radeon RX 6800 XT review (https://www.guru3d.com/articles-pages/amd-radeon-rx-6800-xt-review,1.html)Se pare ca RX 6800 XT este placa pentru 1080p, doar acolo reuseste sa se apropie de RTX 3080 si RTX 3090.
AMD Radeon RX 6800 review (https://www.guru3d.com/articles-pages/amd-radeon-rx-6800-review,1.html)
8k merge si la Nvidia doar cu 3090 si DLSS, pe "direct/8k nativ". Altfel se descurca TV-urile 8k cu cipurile AI integrate mai bine decat Nvidia cu DLSS, deci se poate juca in 8k cu orice care duce 4k/60fps.
Si sa vedem cine mai da 1500-2000 lei in plus pentru doar cateva fps in plus la 3080... 8)
3070 e depasita binisor de 6800 si in 4k la pret incomparabil mai mic pe piata.
Poate imi explica si mie cineva cum draq RX 6800XT cu 16GB vram este cu 20% mai slaba ca 3080 cu 10GB vram, in FS2020 in 4K, joc pt care era musai parca placa video cu 16GB vram.
Chiar si in DOOM Eternal in 4K este mai slaba cu 5%, alt joc de pe faimoasa lista de jocuri pt care 10GB vram nu sunt suficienti.
Asteapta-i pe cei de la HU. La ei o sa bata si 3090-ul.Ray Tracing si 4K.
S-a batut atat de mult darabana pe memorie si exact acolo unde era nevoie de ea scartzaie Radeoanele. In 4K.
3080 e cu 1,38 % mai bun in 4k ca si 6800xt, potrivit jarrods tech. Nu pot spune ca scartzie, iar in viitor acei ram in plus vor ajuta la rezolutii mari din ce in ce mai mult. Vom vedea...
3080 e cu 1,38 % mai bun in 4k ca si 6800xt, potrivit jarrods tech. Nu pot spune ca scartzie, iar in viitor acei ram in plus vor ajuta la rezolutii mari din ce in ce mai mult. Vom vedea...
3080 e cu 1,38 % mai bun in 4k ca si 6800xt, potrivit jarrods tech. Nu pot spune ca scartzie, iar in viitor acei ram in plus vor ajuta la rezolutii mari din ce in ce mai mult. Vom vedea...
Se folosesc de softuri avansate
E vorba despre cei care fac profituri serioase, nu despre cei care mai ciugulesc 1-2 produse pentru un mic ciubuc.
Ideea e ca habar n-ai despre ce fac softurile serioase si ca intram in off topic.
E de retinut faptul ca vanzatorii cu amanuntul sunt obligati sa mentina pretul impus de AMD! (cel putin din ce se arata pana acum). Avantaj enorm pentru placile AMD!
Nu se stie sursa de unde aduc respectivii placile. Scalperii "Pro" de ex. pot sa aiba contracte cu tot felul de distribuitori. Culeg marfa si o redirectioneaza direct catre o firma cu care au contract, dupe ce si-au pus un adaos comercial oarecare. In US este lege anti-scalping, in restul lumii nu (poate cu unele exceptii, dar fara a fi specificata metodologia de penalizare). 8)E de retinut faptul ca vanzatorii cu amanuntul sunt obligati sa mentina pretul impus de AMD! (cel putin din ce se arata pana acum). Avantaj enorm pentru placile AMD!Asta doar in US poate. La noi vad ca se respecta cu sfintenie MSRP (in euro)+TVA.
Nu se stie sursa de unde aduc respectivii placile. Scalperii "Pro" de ex. pot sa aiba contracte cu tot felul de distribuitori. Culeg marfa si o redirectioneaza direct catre o firma cu care au contract, dupe ce si-au pus un adaos comercial oarecare. In US este lege anti-scalping, in restul lumii nu (poate cu unele exceptii, dar fara a fi specificata metodologia de penalizare). 8)Pai retalierii de la noi nu iau direct de la AMD placile reference?
Pai atat e si la noi :)Nu m-am uitat la pretul de la PCG, dar 3300 lei e un pret fb si nu merita aduse din afara in cazul asta. Pretul "normal" e de ~2900 lei si PCG vand scump fata de altii, deci e posibil sa apara si mai ieftine.
599 GBP = 3266 lei vs 3299 la PcG (cand o fi in stoc). Cu tot cu transport banuiesc ca sare de 3300 lei, deci mare afacere nu ai facut.
The consumer friendly AMD locks ray tracing in Godfall to their GPUs:
https://twitter.com/PlayGodfall/status/1329095241333432323
Mai dureaza pana reusesc sa ghimpuiasca performanta placilor Nvidia in godfall cu DXR on ca sa fie sub cele de la AMD.The consumer friendly AMD locks ray tracing in Godfall to their GPUs:
https://twitter.com/PlayGodfall/status/1329095241333432323
Ce rahat ... nu era vb ca AMD foloseste DXR si ca e ok pe orice system/placa video?
^^ exact asta. Cum sa dai aprox 4000 de ron...sa joci in 1080p. jesus fucking crist. au 'nebunit lupii.
Ingrijorator e pentru nebuni. Parca ai sta sub apa si nu sunt tuburi cu oxigen pe stoc.
Stai linistit pana trece nebunia si cumperi la pret decent.
3070 e depasita binisor de 6800 si in 4k la pret incomparabil mai mic pe piata.E depasita cu foarte putin si pana si techspot, fratii de arme ai lui HU, au vazut 3070 peste 6800 la fps per $. In plus, 3070 trece in fata cu rt on, dar mult mai important e ca sunt destule jocuri unde 6800 aparent e in fata insa acestea suporta DLSS 2.0. In lista celor de la TPU sunt 4 din 16.
Nu chiar, ce a postat olds se refera la pretul normal, AIB nu vor putea vinde la MSRP pentru ca ar vinde in pierdere. Deci preturile normale vor fi cu minim 50$ mai sus. Sau direct sau cu mici tertipuri gen modele "OC".Referinta e ok, insa preturile de pe la noi te duc cu gandul la casa de nebuni.
De ex: e mult mai greu sa gasesti ASUS 3080 TUF decat ASUS 3080TUF OC. Care are EXACT aceleasi componente si totul doar ca are din bios un minor OC, de unde si prefera sa produca si sa vanda OC decat non-OC.
AMD Radeon RX 6800 XT Scores 3DMark Fire Strike World Record at 2.65 GHz on Air Cooling (https://wccftech.com/amd-radeon-rx-6800-xt-3dmark-fire-strike-world-record-2-65-ghz-on-air-cooling/), Faster Than LN2-Cooled RTX 3090’sAbsolut superb scorul, pacat ca nu este validat. :(
Nu se mai supara nimeni daca terminati cu intepaturile in povestea asta. V-a avertizat si colegul care a trebuit sa inchida threadul o vreme ca sa aiba timp sa faca o curatenie obiectiva dupa zeci de postari inflamatoare.Ma rog. Printre stersaturi au fost si unele opinii care nu meritau soarta asta. Una ar fi ca eu consider ca acel smart cache nu poate compensa treimea lipsa la latimea de banda, motiv pentru care radeoanelor li se prabuseste efectiv performanta la rezolutii mari chiar si in jocuri optimizate la sange pentru ele. Repet: e doar o opinie personala, nu e musai adevar absolut. Daca se adevereste, driverele nu pot face minuni.
Una ar fi ca eu consider ca acel smart cache nu poate compensa treimea lipsa la latimea de banda, motiv pentru care radeoanelor li se prabuseste efectiv performanta la rezolutii mari .
Nu și a luat nimeni rx, să ne spună și nouă cum e?Nu prea ai de unde sa iei :)
mi-as dori un AIO la 6900XT :) ... sper sa apara ceva la anu :) pana atunci am reusit sa prind "pre-order" la concurenta :DCe ți-ai luat? 3080?
AMD plans to bring its “Smart Access Memory (SAM)” tech to Nvidia GPUs, ensuring compatibility on both Intel/Nvidia platforms
nVidia si-a gimpuit de atatea ori singura perf doar pt ca penalizarea era mai mare pe AMD, deci faptul ca face si AMD magarii din astea nu mi se pare deloc ciudat.
Cyberpunk 2077 Recommended PC: 4K Ultra
* Core i7-4790 or Ryzen 3 3200G
* RTX 2080 Super, RTX 3070 (or RX 6800)
* 16GB RAM
* 8GB VRAM
* 70GB SSD storage
* Windows 10 64-bit
* Target: 4K Ultra
Inca nu s-a aratat nici o comparatie directa intre cum arata jocul +- RT si e de asteptat ca si fara RT sa arate super. In multe jocuri diferentele sunt minore si trebuie cautate cu lumanarea, iar fara RT pot sa arate chiar mai bine in multe situatii (fara straluciri exagerate si deranjante).
Speram ca odata cu lansarea Ray Tracingului pe AMD sa scoata driveri care sa permita si placilor mai vechi suport pentru asa ceva, cum a facut Nvidia cu seria GTX 1000.
Am mai învățat ceva,habar nu aveam de toate astea din postura de casual gamer, dar cred că mai durează până o sa vedem așa ceva în jocuri.... 4 ani în varianta optimistă.
Trimis de pe al meu VOG-L29 folosind Tapatalk
Tot RT-ul din jocuri speculeaza doar o mica parte din complexitatea reflexiilor luminoase, mai mult acolo unde ar putea sa sara in ochi. Pentru randare RT complexa e nevoie de supercomputere si statii grafice precum in industria cinematografica. RT in gaming e doar la nivel de "gimmick". Dar e o chestie, totusi.
Pentru 4k de ex. tinta e standard, 60fps.
Pentru 4k de ex. tinta e standard, 60fps.
De unde ai scos informatia asta, pe graficul lor nu spune nimic de fps.
https://twitter.com/CyberpunkGame/status/1329815591151144960
Um... ok. Dar AMD au o solutie Ray Tracing diferita, nu?
Consolele au GPU's AMD, deci la anul cand vor lansa RT pe console, vor veni si cu solutia pentru AMD pe PC.
Presupun ca CDPR trebuie sa programeze separat jocul pentru AMD cat si pentru Nvidia, din cauza asta nu au avut timp sa faca asta pana la lansare.
Care record in Fire Strike nu este validat.Cand am scris cam aceeasi treaba am primit warn.
Postarea unor astfel de "recorduri" arata lipsa de profesionalism din partea wccftech.
Observ ca din ce in ce mai des apar in stoc produsele Nvidia si la preturi din ce in ce mai apropiate de preturile normale.
Poate si produsele AMD or sa urmeze tendinta asta nu numai la disponiblitate ci si la pret.
Uite ca sunt validate amandoua recordurile si sunt preluate de majoritatea siturilor de specialitate. RTX 3090 pe LN2 e pe locul 3, dupa RX 6800 XT pe LN2 si RX 6800 XT pe aer.Pentru 6800XT exista fire strike extreme. In fire strike joaca juniorii.
Ghinion pentru tine: Takukou`s 3DMarkGhinion pentru tine ca in poza zice ca nu e validat:
...
In firestrike placa asta rupe tot, am in momentul asta atât 6800 xt cat și 3080. În jocuri se mai schimba situația.Rupe, n-am ce zice, dar e preset 1080p. Pentru 1440p se foloseste Fire Strike Extreme (primul radeon e pe pozitia 6) si pentru 4k se foloseste Fire Strike Ultra (primul radeon este pe pozitia 35).
Combinatia optima pentru perf/energie consumata se obtine cu power limit undeva intre 50% si 75%, in functie de aplicatia folosita, si intre 70% si 75% pentru jocuri (conform unui studiu facut la Universitatea Tulane cu aparatura de masurare dedicata). Power Limit are un algoritm optimizat pentru asta, spre deosebire de optiunea pentru reglaje de voltaje si frecvente conceputa mai mult pentru butonagii.
Eu de exemplu folosesc 3080-ul la 1500mgz la 725mv. De ce? Pentru că am monitor 2k 60 hz. Și în modul asta placa consuma 160-170 w maxim și nu depășește 51 de grade temperatura. Performanta cred în jur de 15% mai mica fata de stock.
Eu de exemplu folosesc 3080-ul la 1500mgz la 725mv. De ce? Pentru că am monitor 2k 60 hz. Și în modul asta placa consuma 160-170 w maxim și nu depășește 51 de grade temperatura. Performanta cred în jur de 15% mai mica fata de stock.2K inseamna 1080p. Banuiesc ca ai vrut sa zici 1440p :)
Mersi de test andreeaki, dar nu m-am exprimat eu tocmai clar. Ma interesa tensiunea minima la care poti mentine frecventa de boost default. Raportandu-ma strict la poza ta, ar fi frecventa de 1920Mhz la ce tensiune minima o poti obtine?Am redus performanta cu un frame? Placa nu tine boost default la 1920, in majoritatea timpului sta pe la 1850 cred.
Ce ai facut tu cu undervolt-ul la 0.812V este sa reduci si perf. Ai 1815Mhz vs 1920Mhz.
Asa e .. insa sa nu uitam ca ce ray tracing vedem acum e focusat in special RTX nu pe DXR :) ...
Am redus performanta cu un frame? Placa nu tine boost default la 1920, in majoritatea timpului sta pe la 1850 cred.1 frame in locul ala in Control. Nu stiam in restul jocurilor cum e, dar daca zici ca overall este asa, at OK. Destul de bun trade-off-ul perf-power :)
www.dsogaming.com/news/australian-retailer-claims-that-amd-has-paper-launched-its-rx-6000-series-awful-stock-during-launchAsa e .. insa sa nu uitam ca ce ray tracing vedem acum e focusat in special RTX nu pe DXR :) ...
Serios? Cate jocuri stii tu pe OptiX?
Unii retaileri anunta posibilitatea prelungirii crizei de placi video pana prin luna Mai a anului viitor (ex. Azerty)... ;D 8)Azerty mai exista? Eu stiam ca au fost cumparati de cel.ro
www.dsogaming.com/news/australian-retailer-claims-that-amd-has-paper-launched-its-rx-6000-series-awful-stock-during-launchAsa e .. insa sa nu uitam ca ce ray tracing vedem acum e focusat in special RTX nu pe DXR :) ...
Serios? Cate jocuri stii tu pe OptiX?
Toate cele care au in meniu RTX ... :) - cred ca doar 1 singur joc a updatat meniul si a schimbat RTX cu Ray tracing (Wolfenstein)
Cu aproximatie...A facut cineva masuratori mai precise si concluzia e ca la 70% din consum (PL -30) placa isi pastreaza 90% din performanta, respectiv ramane cu ~20% peste 2080 Ti (in medie) la consum de usor sub 200W.
Cam da cu virgula. PL reduce doar consumul cipului, nu si al restului componentelor, care e destul de consistent. Daca ne luam dupa ultimul leak (215 cip/ 300 toata placa) un -30% reduce consumul pe cip cu ~65W, iar placa este inregistrata cu 348W peak in gaming. Chiar si cu maxim 300W tot ramane un consum de 235W.Cu aproximatie...A facut cineva masuratori mai precise si concluzia e ca la 70% din consum (PL -30) placa isi pastreaza 90% din performanta, respectiv ramane cu ~20% peste 2080 Ti (in medie) la consum de usor sub 200W.
Sau 95% din performanta cu PL 80% (-20).
Sau 98% din performanta cu PL 90% (-10).
"Nvidia GPUs report total power consumption to the program fairly accurately, but AMD only reports its actual GPU core power consumption, not the impact of the rest of the board."Imi da cu virgula pentru ca o placa cu consum 300+ W nu poate ajunge "usor sub 200W" cu pl 70%. Nu iese matematic.
Tipul nu spune ce si cum a masurat exact, dar la Nvidia se poate afla destul de precis consumul placii video, iar rezultatele sunt similare. Cu PL la 80% (-20) pe toata placa, performanta scade cu mai putin de 10%. Verificat. Nu exista nici un motiv pentru ca la AMD sa fie diferente semnificative si e cat se poate de verosimil si probabil sa fie asa cum e mentionat mai sus.
Reducerea consumului pe cip influenteaza consumul pe toata placa, deci inclusiv al ventilatoarelor de ex., care isi reduc turatia. Din experienta cu masuratorile pe Nvidia, consumul total scade ~proportional cu cel al cipului. O placa cu TDP de 250W arata ca, consuma ~250W in sarcina cu PL 100% si ~200W cu PL la 80%.
A facut cineva masuratori mai precise si concluzia e ca la 70% din consum (PL -30) placa isi pastreaza 90% din performanta, respectiv ramane cu ~20% peste 2080 Ti (in medie) la consum de usor sub 200W.
o performanta de ~80 % si un consum care variaza intre 200 si 260 W in cazul celei de-a doua variante.Daca faci o medie, iese cam 230W. Asa da, e logic.
Am incercat eu, obtii performante mult mai bune cu curba custom si uv decat cu modificarea power limit-ului la 70%. In cazul primei variante obtii 88-89 % performanta cu 200 - 210 W, spre deosebire de o performanta de ~80 % si un consum care variaza intre 200 si 260 W in cazul celei de-a doua variante.
in majoritatea jocurilor 6800 XT e cu ~30% peste 2080 Tihttps://www.techpowerup.com/review/amd-radeon-rx-6800-xt/35.html
Daca vorbesti de 6800XT, atunci nu are cum sa fie cu 20% peste 2080Ti daca pierde 10% performanta. Admitem ca pierde doar 10 % cu pl 70, insa am mari indoieli.Am vorbit cu cineva care chiar a testat RX 6800 XT si mi-a spus ca se vorbeste pe aici sunt povesti de adormit copii. RX 6800 XT cu power limit 70% intra in power throttling si pierde peste 50% din performanta.
Scorilo, stai linistit ca omul vrea sa isi ai TV 8K pe post de monitor, deci nu se uita la cat da pe curent.Tocmai de aceea am punctat, caci nu este unul cu target office pc.
Momentul ala cand iti cumperi Ferrari dar ii scoti 2 bujii sa consume mai putin...Sau pui GPL pe el :D
Scorilo, stai linistit ca omul vrea sa isi ai TV 8K pe post de monitor, deci nu se uita la cat da pe curent.
Cipul AI dedicat pentru reconstructie de imagine la 8k face o treaba mai buna decat DLSS-ul folosit de Nvidia, asa de curiozitate, ca tot aberezi pe chestia asta. ;D
Daca reuseste sa-si cumpere 6800XT la MSRP si sa-l faca sa consume 200w in maxim 2 ani cred ca recupereaza diferenta de perfeormanta fata de un RTX 3080 doar din driver updates.Tot nu intelegeti ca 5700XT ramasa in urma rivalului direct, cu acelasi procente, tocmai pentru ca si ceilalti se ocupa de drivere? Poate peste 7-8 ani sa recupereze ceva din drivere.
Se stie cum si ce face DLSS-ul si inainteaza si Nvidia spre o formula universala, chiar destul de repede. Au inceput cu un algoritm "simplu" care necesita pentru fiecare joc accesul la texturi de inalta rezolutie cu care sa faca comparatie. Din cauza asta e nevoie de colaborare cu cei care produc jocurile. Algoritmii antrenati pentru TV-urile 8k functioneaza diferit, bazati pe mai multa matematica. Teoretic pot sa genereze imagini usor diferite de "realitate", dar impecabil dpdv vizual. Oricum nu-si da nimeni seama de diferente fara comparatii directe.Tot imi da cu virgula. Te cramponezi de 20-30W, dar cumperi televizor care consuma cat sistemul, caci doar nu o sa il folosesti in power saving.
E doar ca idee Man, in 4k, in rasterizare normala, in majoritatea jocurilor 6800 XT e cu ~30% peste 2080 Ti, dar sunt si exceptii in care e mai aproape de 2080 Ti, in DX11: Microsoft Flight Simulator (2020) e chiar usor sub 2080 Ti, etc... Ca idee, nu e nimic batut in cuie si +-5% oricum nu face nici o diferenta practica.De ce te-ai mai juca Dx 11 cand este Dx12? De ce se mai fac teste in Dx 11 sa arate ca Amd e langa Nvidia?
Tot imi da cu virgula. Te cramponezi de 20-30W...Relax, ca nu ma cramponez de nimic, doar ma distrez si nu vreau calorifer in jucarie. Daca fac o concesie spre 230W te simti mai bine?😎
Pai la 230w consum tot 3080 ar merge mai bine și mai rece. O parere
Pai la 230w consum tot 3080 ar merge mai bine și mai rece. O parereMai rece nu cred, dar e si asta printre optiuni, doar ca nu la 6000 lei. Ramane obiect de studiu pana se stabilizeaza piata. 😎
Ma rog revenind ontopic .. ce parere aveti despre asta ?
PS: vezi ca era si AMD pe acolo prin pozele lui scorilo ;)Daca nu sunt in top, esti offtopic. ;D ;D
Se stie cum si ce face DLSS-ul si inainteaza si Nvidia spre o formula universala, chiar destul de repede. Au inceput cu un algoritm "simplu" care necesita pentru fiecare joc accesul la texturi de inalta rezolutie cu care sa faca comparatie. Din cauza asta e nevoie de colaborare cu cei care produc jocurile. Algoritmii antrenati pentru TV-urile 8k functioneaza diferit, bazati pe mai multa matematica. Teoretic pot sa genereze imagini usor diferite de "realitate", dar impecabil dpdv vizual. Oricum nu-si da nimeni seama de diferente fara comparatii directe.Startul s-a dat dupa atentatul din Atlanta. Exista un software scris de doi matematicieni, insa nu il baga nimeni in seama pentru ca cerea putere de calcul imensa. L-a adoptat FBI pentru a prelucra toate materialele foto$video de la fata locului si de aici a inceput accensiunea.
Viitorul imagisticii de inalta rezolutie se bazeaza mult pe reconstructie de imagine utilizand AI. In atasament e un exemplu consacrat despre solutia Samsung Gen.1. Algoritmul recunoaste cam ce contine imaginea si unde vede "petele maronii" de pe cladiri pune tigle si unde vede petele verzi unde se presupune ca sunt copaci le pune frunze si alte detalii, in functie de ce rezulta din "structura petei".
Ala e exemplu de imagine cu rezolutie mica scalata destul de mult, o imagine buna 4k deja are foarte multe detalii si nu e greu de reconstruit la 8k.
Ce vedem la Samsung arata bine, insa ca toti ceilalti ne arata doar crema, leopardul e dupa gardul frumos vopsit. Oricum, poza aia e oferita de un TV de 10000$, avansul la o casa. La astea mai ieftine, cu pret "doar" 2500-3000 $, leopardul chiar sare gardul. ;D
Cine a constatat? Nu contest, insa niste detalii nu ar strica.
Ma rog revenind ontopic .. ce parere aveti despre asta ?
TF??? 900$???
PS: vezi ca era si AMD pe acolo prin pozele lui scorilo ;)
Cam asta e motivul pentru care mi se pare mie interesanta placa asta video
Este totusi cea mai puternica placa video de pe piata, in 4k e diferenta de 1-2 frameuri/secunda .. e totusi cu 600$ mai ieftina :) s-ar putea sa avem surprize si mai placute de la RX 6900XT :)3090 este o placa care nu are nici un sens dpdv pret/performanta. Chiar in poza pusa e tine este cu 10% mai buna decat 3080, dar ca pret este peste 2x mai scumpa...
a ca e mai scump cu 200$ (28.5%) ca ca RX 3080 si ofera doar 10% (din nou discutabil, avand in vedere ca in clasa 3080 sunt sigur ca exista implementari la 10% distanta ... low end / high end in loteria siliconului) ... e adevarat, dar cred ca aia 200$ nu sunt doar performanta, se regasesc in racirea aia AIO .. deci mai rece si automat mai silent.
O diferenta de 11% nu e sesizabila practic in nici o imprejurare.
da, in 1440 fara RT.
3090 care oricum e o panarama de placa ...
Se pare ca e o noua problema care loveste producatorii de placi video si anume stocurile insuficiente de DDR6 :)Pai daca doamna Su s-a apucat sa puna 16GB VRAM pe toate gardurile este normal sa se epuizeze stocurile.
Au suprasaturat piata cu carduri, acum fac si ei o pauza. :(Nu fac.
https://www.techpowerup.com/275744/amd-radeon-rx-6900-xt-rx-6800-xt-and-rx-6800-reference-designs-are-getting-discontinued
Primul radeon pe care il vad pe stoc.
Memoria costa. Dai un ban dar stai in fata. :o
https://www.pcgarage.ro/placi-video/sapphire/radeon-rx-6800-nitro-plus-16gb-gddr6-256-bit/
Post Merge: 16 December 2020, 10:17
Nu fac bascalie de nimeni, insa se repeta istoria Vega, cu aceleasi schelalaieli prin media ca ei se vor prezenta in fata multimii cu cantitati indestulatoare. Aceeasi minciuna, aceeasi bataie de joc.
Cine a visat radeon 6800 la 3000 lei, acum are doar varianta 5700XT cu 25% mai scumpa ca inainte de lansare. Daca vrea 6800, plateste cat pentru un 3800 net superior (si el cu pret cu mult peste asteptari).
3090 zace cu saptamanile pe stoc. E saturata piata pe acest segment pentru ca nu costa mult peste pretul de referinta (8-10% peste referinta, pret normal pentru un model custom).
Ai de paula mea ce preturi ...Suntem daci liberi. Cine sa ne bage in seama cand suntem la capatul unei conducte sparte? Aici ajunge cate ceva doar cand creste presiunea. ;D
3070 nu are viitor din cauza memorieiViitorul il poti vedea acum la 3090 pentru ca are suficienta memorie si poti face o corelatie intre cantitatea de vRAM folosita in 4k si performantele placii. Acolo unde jocul cere peste 8GB, placa geme. Si daca geme 3090, un biet 3070 ar fi torturat chiar daca il echipezi cu 128 GB.
Cam asta e motivul pentru care mi se pare mie interesanta placa asta video
Motivul e un video pe youtube? La ce ar trebui sa ma uit :P
Oricum ai da-o ... 900$ ...
Ce-ar fi sa le dam noi multa multa muie celor de la ASUS
https://store.asus.com/us/item/202011AM260000004/A50243-ASUS-ROG-STRIX-LC-AMD-Radeon%E2%84%A2-RX-6800-XT-OC-Edition-Gaming-Graphics-Card-%28-PCIe-4.0%2C-16GB-GDDR6%2C-HDMI-2.1%2C-DisplayPort-1.4a%2C-Full-coverage-cold-plate%2C-240mm-radiator%2C-600mm-tubing%2C-GPU-Tweak-II%29
Sa speram
Dupa ce dolarul isi va pierde privilegiul de valuta suprema, treaba se va rezolva de la sine.Sa vedem ca mai ramane din dolar dupa evenimentele de ieri. Tot un fel de mineri au fost si aia, doar ca nu aveau casca, nici RTX-uri. ;D
Sa speram
Eu sper, pentru viitor. Dar pe tine nu ar trebui sa te afecteze ... preturile in EU nu ar trebui sa creasca din cauza asta ...
Doar ca si eu tot in US stau :)
Sa vedem ca mai ramane din dolar dupa evenimentele de ieri. Tot un fel de mineri au fost si aia, doar ca nu aveau casca, nici RTX-uri. ;D
Degradarea cea mai mare apare la tranzitia intre load si idle, iar asta se intampla in gaming.
MTBF nu se calculeaza la o placa video. poate per componenta, gen capacitors. Asa cum a zis Kodiak mai sus, o placa folosita 24/7, chiar pentru minat, are componentele mai bune decat una cu care te joci tu si o arzi in 30-70+ grade de 50 de ori pe zi. La preturile de acum trebuie sa fii putin nebun sa cumperi o seria 3xxx fara garantie. Daca o iei cu garantie, SH, nu te mai intereaza cine si cum a minat cu ea.Nu știu ce fizică ai studiat dar în lumea electronicelor nu se aplică același teoreme ca la mecanică... Un chip nu e un motor la relanti așa că mai ușor cu textele "definitive"...
Degradarea cea mai mare apare la tranzitia intre load si idle, iar asta se intampla in gaming.
ai si o explicatie stiintifica pt asa? Sau ceva teste in laborator? Sunt chiar curios.
raman la parerea mea ferma ca placa pusa la minat va crapa mult mai repede ca cea folosita in gaming. Bineinteles, cu conditia ca cel care a folosit-o in gaming sa fi avut grija de ea.Si cel care a folosit-o la minat sa fi bagat overvolt in ea la greu si zero cooling, nu?
Astora li se calculeaza mtbf dupa simpla formula: ore lucrate/temperatura. Cica isi injumatatesc speranta de viata la fiecare 10 grade in plus.
Minatul facut de oamenii care se pricep nu rupe in gura placile video.
S-a mai discutat. La minat eth chip-ul sta chiar sub 50 de grade, cu power limit pe la 70%. Curentul consumat de toata placa este mult, mult mai mic decat cand e folosita pentru jocuri la setari default. Cum nu se incalzeste aproape deloc chip-ul, nici restul componentelor de pe PCB nu se apropie de temperaturile pe care l-ar fi atins in jocuri.Oamenii care se pricep la minat ar trebui sa invete cate ceva si cum sunt impartite componentele pentru categoriile home user/utilizare ocazionala si profi/utilizare nonstop. Cand pui un GeForce sa lucreze in stil Tesla trebuie sa te astepti si la evenimente neplacute. Pentru simplu fapt ca nu este proiectat pentru astfel de activitati. Nu o sa vina niciun miner sa spuna "man, mi-au crapat n placi in minat" pentru ca domnia sa vrea sa le vanda dupa ce isi extrage profitul din ele.
Minatul facut de oamenii care se pricep nu rupe in gura placile video.
AMD a inregistrat un record absolut la vanzari in Q4 2020Corect, dar "vinovatii" sunt preturile. Daca vrei, e si o confirmare indirecta ca si la ei e doar marketing msrp-ul cu care s-au laudat in fata prostimii.
Corect, dar "vinovatii" sunt preturile. Daca vrei, e si o confirmare indirecta ca si la ei e doar marketing msrp-ul cu care s-au laudat in fata prostimii.
...nu stiau ca scutirile de taxe (ori taxe mai mici) pentru importurile din China expirau la 31 decembrie si nu exista niciun semn ca ar fi reinoite in viitorul apropiat?...Vezi ca UE a semnat deja acordul cu China.
De cumparat de la AMD o cumpara la sub MSRP, poti sa fii sigur de asta.Unde anume ai citit, în mod concret cu info aici, că cei de la eMAG achiziționează azi plăci video sub MSRP?...
Unde anume ai citit, în mod concret cu info aici, că cei de la eMAG achiziționează azi plăci video sub MSRP?...Uite aici (https://www.investopedia.com/terms/m/manufacturers-suggested-retail-price-msrp.asp) ce inseamna MSRP.
AIB clar nu primesc placi video. Primesc GPU-uri, care evident sunt MULT sub MSRP, la care apoi adauga restul componentelor (PCB, memorii, vrm-uri, etc).
Si eu asta incerc sa zic aici, nVidia/AMD vand GPU-urile la acelasi pret acum ca si acu 3-4 luni, cand chiar puteai sa iei placa video la MSRP. Deci tot adaosul pe care il platim noi acum, nu il platim nVidiei/AMD-ului, ci il platim retailer-ului.
Vezi ca UE a semnat deja acordul cu China.Irelevant pentru acest domeniu, cand nVidia si AMD sunt firme americane. Acordul are efect doar asupra importurilor directe dintre UE si China.
Dosarul a fost finalizat in presedintia Germana a Consiliului UE.
Irelevant pentru acest domeniu, cand nVidia si AMD sunt firme americane.Nvidia si AMD sunt multinationale.
...
Nvidia si AMD sunt multinationale....multinationale americane, dragul meu. Daca srl-ul "unt pe paine" din Cracanatii din Deal devine maine multinationala, cu fab-uri in toata lumea, tot unt pe paine din Cracanati ramane.
Nu chinezii vand placi video in Europa, vand americanii (ei controleaza piata), care n-au avut la inima UE cat a fost diliul ala de Trump sef de trib la ei.Care americani? In afara de XFX si eVGA, cred ca toti AIB sunt asiatici.
...multinationale americane, dragul meu...Hai ca am inceput sa inteleg. :)
... Nu chinezii vand placi video in Europa, vand americanii (ei controleaza piata), care n-au avut la inima UE cat a fost diliul ala de Trump sef de trib la ei...
Hai ca am inceput sa inteleg. :)Fractura de logica e o capodopera de arta. Cum ai facut legatura dintre comunism si o multinationala americana, tine de AI-ul Epocii de Piatra.
Tu ai ramas fidel mentalitatii comuniste si toate relele din lumea asta se datoreaza imperialistilor americani.
LOL!
Eu sunt de parere ca GPU-urile pleaca de la AMD/nVidia la fix acelasi pret la care plecau si la lansare. Nu sunt sigur...Deci, ignoram niste date logice, dar ne dam cu parerea. Daca ne contrazicem, hai sa o facem cu ceva de care suntem siguri. Contractele de genul acesta nu se fac pe genunchi si niciodata, NICIODATA
Sa impartaseasca cat vor, poate le iese de-o supa calda-n iad la cata carne'n frigider le bagam in fiecare zi, pastele ma-sii de disperati (si de-o parte si de alta). Aproape ca imi doresc sa intervina statele si sa reglementeze minatul pana il ingroapa permanent. /rant overMinerii sunt victimele postacilor dirijati de amd si nvidia. Pentru ca pe cei doi ii doar in pix de aia care cumpara cu bucata, interesul lor e sa scoata profit maxim cu cheltuieli minime. Gamerul e victima acestei politi, nu a minatului. Poti oricand limita eficienta placilor video la minat prin firmware, dar ce interes ai. Banii sa curga!
Nu cred ca o sa aflam vreodata adevarul la chestia asta...O crestere globala a preturilor inseamna inflatie, dar in cazul de fata asistam la o crestere brusca si punctuala a preturilor iar asta inseamna ca ceva rechini cu gulere albe au inceput sa joace pe pietele financiare.
Situatia e similara cu cea din 2018 si e datorata in cea mai mare parte minatului. Doar ca de data asta Bitcoin (care influenteaza si restul) se mentine la valori inalte neasteptat de mult timp.BTC acolo ramane un timp sau chiar va creste. mai ales dupa stirea bomba de azi.
Te cam contrazici singur.Nu cred. Tu esti cel care tot o tine langa cu msrp-ul, sfintit si batut in cuie, si ca suntem victime doar ale samsarilor si minerilor. Stai linistit, caci toti profita si celor doi derbedei le convine de minune situatia. Altfel cum iti explici ca au stopat productia unor modele vechi si gasesti doar rahaturi pe piata? La pret dublu!
Dupa tine, correct me if i'm wrong, AMD/nVidia modifica pretul cu care vand GPU-urile catre AIB lunar (sau poate chiar mai des), astfel incat sa profite maxim.
Tot dupa tine, "Contractele de genul acesta nu se fac pe genunchi si niciodata, NICIODATA". Dar aparent se fac, pt ca altfel nVidia/AMD nu ar putea modifica pretul GPU-urilor dupa cum le tuna, de la o luna la alta.
Deci hotaraste-te te rog, cum e pana la urma?
Unde am zis eu ca AMD si nVidia nu castiga nimic? Evident ca ei vand GPU-urile pe profit, inca de la lansare. Si avand in vedere ca nu mai fac fata cererii cu oferta, e foarte logic sa raporteze profit pe ultimele Q-uri.
Iar incepi cu limitarea eficientei la minat...
Nu ai cum sa o faci usor, fara sa afectezi perf in gaming, si sa fie si ireversibila. Daca limiteaza din firmware (si asa nu sunt sigur ca se poata fara a afecta perf in gaming) crezi ca e greu minerului sa flashuiasca firmware-ul?
Situatia e similara cu cea din 2018 si e datorata in cea mai mare parte minatului. Doar ca de data asta Bitcoin (care influenteaza si restul) se mentine la valori inalte neasteptat de mult timp.Nu e deloc similara. Crescusera preturile, insa gaseai produsele pe piata.
De ce nu intra si FAB-urile pe felie? Adica TSMC sau Samsung sunt mai fraiere, stau pe bara si se uita la nvidia si amd cum se umfla, si ele nu profita deloc? Nu pare plauzibil, nu?Trebuie sa mai repet inca o data ca toti profita? Trebuie sa mai repet inca o data ca aceasta contra a plecat de la faptul ca tu susti ca doar samsarii sunt de vina si neprihanitele vand la pret de msrp? Mi-ai pus n poze aici cu preturi foarte atractive la niste placi video... fata morgana. Normal ca au pus trei lulele la acel pret, praf in ochii pentru prostime, dar alte calcule aveau facute.
Aveti pea multe fantezii. Preturile la producatorii de cipuri nu sunt flexibile, se stabilesc si cu mai mult de un an inainte. Nici la producatorii de placi nu sunt variabile. Doar la restul sunt variabileAtunci explica cresterile msrp operate de producatori si datorate eliminarii scutirilor de taxa pe chinez incepand cu 1 ianuarie
Doar o mare sincopa are logica ta: cine e idiotul care perfecteaza contracte la pret fix cu luni si ani inainte? Cine e idiotul care plateste marfa cu luni si ani inainte sa o vada? Au fost in viitor sa se asigure ca nu vine apocalipsa, razboiul mondial sau toanele unor politicieni peste afacerea lor? Cum naiba sa stai deoparte cand tu ai stabilit niste preturi la niste produse si vezi ca ele se vand la pret dublu?
Doar daca luam taxa pe chinez, ca i-a lovit cu doar cateva luni inainte, nu stiau de ea? Toata harababura de acum se datoreaza exclusiv celor doi: nVidia si AMD. AMD chiar a dus nesimtirea dincolo de limita suportabilului, pentru ca au vazut ce se intampla cu Ampere, stiau ca nu pot satisface piata, insa au lansat si ei. Adica aia sa fie mai cu mot si noi nu?
Alocarea de wafere pentru productia de cipuri s-a facut cu mult timp inainte de mizeria cu criptomonedele, deci criza nu se datoreaza Nvidia sau AMD. In plus nu-s tampiti sa produca in exces si dupa aia sa ramana cu ele, precum s-a mai intamplat. Daca se prabuseste minatul se invadeaza piata cu sute de mii de pv, cel putin, si raman cu cele noi pe stoc. Nu-si calibreaza nimeni productia pentru situatii de exceptie, trecatoare.Am inteles. Wafferele au 3 zile garantie, dar doar daca le pastrezi in congelatoare, la zero absolut. Pastrate in frigider, se infecteaza cu Salmonella la doar o zi de la fabricare.
Am inteles.N-ai inteles nimic si ai o problema serioasa relativ la intelegerea situatiei. AMD si Nvidia sunt companii "fabless", respectiv nu au fabrici pentru productia de serie. Si daca ar avea, n-ar putea produce mai mult decat ar permite capacitatea de productie. Cipurile lor se produc la alte companii specializate in productia de cipuri. Iar companiile respective produc cipuri pentru o gramada de clienti si au o anumita capacitate de productie. Alocarea capacitatii de productie se face si cu peste un an in avans.
Nu aveti nicio logica in a ma combate. Daca la stat e comunism pur, in mediul privat puteti vedea perfect mecanismele economiei de piata. De ce ar proceda neprihanitele nvidia si amd altfel, doar voi stiti (si doar spuneti, fara a aduce dovezi).
Minerul e client ca si tine, AMD are insa responsabilitateda asigurarii stocului necesar de cipuri pentru a preveni o astfel de harababura.
Ce economie de piata e asta?
Pai ideea de baza acolo este sa te indatorezi cat mai mult. De aia esti si frowned upon daca nu ai credit score. Un popor indatorat este mai usor de manipulat :)
Pare fb, doar ca va lipsi cu desavarsire, fiind fb si foarte eficienta la minat. ;DNu va fi lansat absolut niciun model, care să nu fie deloc bun la minat?
Ma tot bag la newegg shuffle dar n-am bulan :( speram la un 5950 si un 6700xt :)
de la "over 10" pana la "cateva zeci" se numeste exagerare ;)"over 10 game studios and engines".
Pe mine nu numarul de jocuri ma ingrijoreaza ci calitatea FSR-ului.Pe mine ma mira faptul ca nici macar astia nu-s in stare sa faca o comparatie directa pe aceeasi imagine, pentru ca doua jumatati diferite ale unei imagini nu-s aceeasi imagine, contin elemente diferite.
Pe Quality mode este un blur fest cu FSR ON (cred ca sub DLSS 1.0 chiar) :(
de la "over 10" pana la "cateva zeci" se numeste exagerare ;)"over 10 game studios and engines".
E vorba despre peste 10 studiouri care produc o gramada de jocuri fiecare si despre motoare grafice care fiecare dintre ele se utilizeaza la o gramada de jocuri fiecare.
Cate jocuri s-au produs pe UE4?
AMD ar trebui sa fie interesați sa vândă shit, nu sa oprească din vânzările nvidia prin îmbunătățirea pervers pe hardware vechi.Logica era ca aia care cumpara Nvidia nu mai cumpara asa des Nvidia ca oricum cumparau doar NVIDIA.
Because guest what: aia care nu cumpara nu cumpara nici nvidia dar nici AMD.
Man, e vorba despre jocurile produse deja, care sunt la kilogram. AMD a si cerut parerea gamerilor ca sa le spuna in care jocuri ar vrea sa fie introdusa optiunea, sa faca o selectie si sa comunice producatorilor care sa fie primele jocuri in care sa "deschida" niste procese care permit implementarea FSR, ca trebuie operat ceva si de catre producatori si probabil introdus ceva si in drivere.
Deci ar putea sa deschida FSR pentru o gramada de jocuri aflate deja pe piata, pe langa cele aflate in productie.
O sa rad daca vei ajunge sa joci pe placa video RTX cu FSR on si nu cu DLSS ca merge mai bine in cativa ani.... ups am uitat ca tu schimbi placile video ca pe ciorapi, bine ca nu sunt multi ca tine. :)
Asa imi aleg doar masinile ca sa ma tina cat mai multi ani si sa imbatraneasca impreuna cu mine. Ce masina conduci in US.
Honda Civic.
Fiecare are prioritatile lui, dar daca eram in US cred ca incercam sa-mi cumpar ceva de dimensiunea lui F650 pentru drum lung si siguranta maxima si nu RTX 3080 pentru 55 fps in 4k pe un televizor OLED, nu ma intelege gresit ...veneau si alea dupa ce inchideam subiectul cu F650.
Scaderi de preturi pe toata linia in UE, la unele modele chiar si cu ~2000 lei echivalent, dar tot nu e destul nici pe departe.Cum era la precedenta bulă, plin olx-u de rx-uri. Poate prin toamnă iarnă ajung la prețuri mai normale.... Am văzut ca UE5 cam îndoaie 3090.
Pana apar jocuri pe UE5 iese seria 4xxx...In principiu oice engine merge impins astfel incat sa indoaie orice placa video.
FSR nu se aproprie de DLSSSi daca se apropie?
While NVIDIA DLSS is an upscaling system based on Deep Learning/Inference and uses actual hardware to enable performance enhancement without any serious quality degradation - FSR is just a simple spatial upscale. The two classes of upscale are not even remotely comparable and is like resizing something in photoshop versus resizing something in Gigapixel AI. The latter is a far superior result.
Comparatia aia e complet eronata. Si AMD foloseste o tehnica bazata pe reconstructie de imanine, nu-i doar o scalare de calitate. Toata lumea e curioasa despre cum functioneaza si deocamdata doar speculeaza.
Nici nu a aparut bine si deja oameni care au tatuat pe creier Nvidia o ataca de parca o sa dea faliment firma lor preferata cum apare suportul pe GTX .
Dude, nu am facut decat sa ne uitam la filmuletul de prezentare al AMD, deci BEST case scenario.
Inca putin si o sa vedem concret cum stau lucrurile. Eu unul sper sa fie peste DLSS, pt ca noi nu avem decat de castigat din asta, dar la cum se prezinta lucrurile acum slabe sanse sa intample asta.
Eu unul sper sa fie peste DLSS, pt ca noi nu avem decat de castigat din asta, dar la cum se prezinta lucrurile acum slabe sanse sa intample asta.Eu sper sa se ridice macar la 50% din calitatea lui DLSS 1, dar sa mearga foarte bine pe GTX-uri si toate placile vechi ca sa vedem cum in scurt timp o da nvidia de gard si scoate suport DLSS pentru placile vechi, o sa fie asa funny ....
AMD's Scott Herkelman has stated that they have no intention of optimizing FSR for NVIDIA GPUs and that NVIDIA should do that work. While it would have been a completely reasonable expectation in normal circumstances, the fact that AMD expounded on NVIDIA support, absorbed a ton of good press on this and is now basically back tracking makes it seem like a bait and switch situation. This also implies that FSR for NVIDIA users will be optimized only for Godfall unless NVIDIA wants to adopt the technology (which, in my opinion, they absolutely should for non-RTX cards).
Daca e open source nu trebuie neaparat nvidia sa optimizeze.
Vor fi destui care vor face optimizarile free of charge si se vor gasi probabil patchuri sau driveri care suporta FSR .
de la "over 10" pana la "cateva zeci" se numeste exagerare ;)AMD FSR (FidelityFX Super Resolution) Supported Games List Leaks (https://wccftech.com/amd-fsr-fidelityfx-super-resolution-supported-games-list-leaks-here-are-the-20-titles-planned-so-far/) – Here Are The 20 Titles Planned So Far
E ok implementarea, pentru ver1 chiar peste DLSS v1 la vremea ei.
E ok implementarea, pentru ver1 chiar peste DLSS v1 la vremea ei.Au copiat si ei FidelityFX din Cyberpunk.
Mai, din cate stiu eu, amdeii sunt condusi de o doamna draguta asiatica in timp ce cd projekt red este mai european iar regula este ca europenii inventeaza si asiaticii copiaza.Wow, racist much?
...
FidelityFX CAS este tehnologie AMD, folosita in Cyberpunk 2077.
...
...Eu zic sa mergi pe Nvidia ca iesi mai castigat. Ai drivere mai bune, raytracing mai performant si mai primesti si bijuteria de DLSS.
Ma gandeam la un Rx 6800 cu racire de RX 6800XT ca vreau sa ma Tina cel putin 10 ani.
Pai in cazul asta, de ce Cyberpunk 2077 nu este in lista jocurilor care suporta AMD FidelityFX Super Resolution?Pt ca nu suporta FidelityFX FSR. Cyberpunk 2077 foloseste FidelityFX CAS, care este o tehnologie diferita, si este listat printre jocurile (https://www.amd.com/en/technologies/radeon-software-fidelityfx-supported-games) care suporta asa ceva.
Eu zic sa mergi pe Nvidia ca iesi mai castigat. Ai drivere mai bune, raytracing mai performant si mai primesti si bijuteria de DLSS.
@axxel, nici o placa video actuala nu o sa te tina 10 ani de zile, deci i-ati ce gasesti mai ieftin acu :). Orice ai lua, peste 10 ani de zile o sa fie la fel de praf. Uite-te de exemplu la ce a aparut acu 10 ani de zile (GTX 400-500 / Radeon HD 6000-7000) si vezi cum se comporta astazi :)
@axxel, nici o placa video actuala nu o sa te tina 10 ani de zile, deci i-ati ce gasesti mai ieftin acu :). Orice ai lua, peste 10 ani de zile o sa fie la fel de praf. Uite-te de exemplu la ce a aparut acu 10 ani de zile (GTX 400-500 / Radeon HD 6000-7000) si vezi cum se comporta astazi :)
Poti juca astazi cu HD 7970 dar NU si cu GTX 400, 500, 600, 700. Astazi HD 7970 e mult si peste primul Titan. AMD ofera suport mai bun pe termen lung.
ON: 6000 ron pentru RX 6800 e un pret bun sau pot gasi mai ieftin? Noua.
Ti-am dat film!!! Cauta pe youtube ca tipul ala a testat si Titan in 2020!!!, o placa mai noua si mult mai scumpa la vremea ei decat flag ship din seria 7000. Titan a fost mai slaba, urmareste filmul! Unde 7950 avea peste 40 fps, Titan avea sub 30. Nu conteaza ce istorie ai avut tu cu placa doi... ani de zile. E vorba de test facut in 2020!!! cu jocuri recente.
AMD iti ofera support pe termen lung. Nvidia mizeaza pe faptul ca schimbi placa. De asta ramane in urma pe termen lung. In jocurile vechi 680 poate fi in fata, poate ca tu de astea iti aduci aminte. In jocurile noi povestea e cu totul alta.
M-am bagat pentru ca ai zis ca nu poti juca cu placa de acum 10 ani indiferent de firma. @Alex are dreptate, daca vrei sa pastrezi mai multi ani placa, ia AMD ca primesti update de driveri cand ies jocuri noi.
Post Merge: 27 June 2021, 17:55
Ia mai bine cautati voi HD 7970 vs GTX 680 pentru cele mai recente jocuri. Nu GTA5 sau Witcher 3. E diferenta gen 40+ fps vs in jur de 30 fps.
Merg maine sa testez 6800 XT. :)
Ia mai bine cautati voi HD 7970 vs GTX 680 pentru cele mai recente jocuri. Nu GTA5 sau Witcher 3. E diferenta gen 40+ fps vs in jur de 30 fps.
@astateofmind daca vrei sa te dai pe AMD sa te astepti la posibile probleme cu driverele.
De cel putin 10 ani se da pe AMD. O sa-si cumpere RTX 4090 minim. Oledul trebuie alimentat cu fpsuri.