Вашему вниманию предлагается самая большая таблица сравнения видеокарт NVIDIA GeForce. Все видеокарты в виде таблицы, содержат информацию о порядковом месте в рейтинге, её название, рейтинг в синтетическом тесте "Passmark G3D" и цену на старте продаж. Для удобства присутствует поиск видеокарты. Укажите в строку поиска необходимую Вам видеокарту и она покажет её рейтинг, в общей таблице, количество баллов и цену.
Passmark G3D позволяет объективно оценивать видеокарту помощью различных тестов, получаемый результат оценивается в количестве балов и, чем их больше, тем мощнее видеокарта.
В таблице ниже представлено свыше четырехсот видеокарт производства компании NVIDIA, а это вся линейка, которая когда-либо выпускалась.
В дальнейшем наш сайт планирует развивать данную страницу и добавлять дополнительные таблицы с тестами, чтобы позволить Вам объективно сравнивать все видеокарты NVIDIA.
Иерархия видеокарт AMD и Nvidia: сравнительная таблица
Иерархия видеокарт AMD и Nv > Видеокарта Asus nVidia GeForce GTX 1050 Ti — дешевле не бывает!
Как насчёт тех видеокарт, которых нет в списке наших рекомендаций в обзоре " Лучшая видеокарта для игр: текущий анализ рынка "? Стоит ли их покупать или нет?
Подобные вопросы вполне уместны, поскольку доступность разных моделей и цены на них меняются ежедневно. Как узнать, будет ли видеокарта, на который вы положили глаз, лучшей покупкой в данном ценовом диапазоне?
Мы решили помочь вам в этом нелёгком деле, представив таблицу иерархии видеокарт AMD и Nv >
Иерархия видеокарт AMD и Nv >Nv >AMD Radeon RX Vega 64 и Nv >От них не сильно отстают GeForce GTX 1070 Ti, Radeon RX Vega 56 и GeForce GTX 1070, которые также способны показать отличную частоту кадров в разрешении 2560 х 1440. Кроме того все три прекрасно совместимы со шлемами виртуальной реальности.
Карты Radeon RX 580, GeForce GTX 1060 (6GB), GeForce GTX 1060 (3GB) и Radeon RX 570 превосходно ведут себя с играми в разрешении 1920 х 1080. Кроме того, они вполне работоспособны и в разрешении 2560 х 1440 при условии снижения уровня настроек. Однако стоит помнить о том, что ограниченный объём памяти, как например, 3 Гбайта у карты GeForce GTX 1060, может привести к серьёзным проблемам с производительностью на более высоких разрешениях. Кака правило, эта модель быстрее, чем Radeon RX 570, но на разрешениях не выше 1920 х 1080.
То же касается и карт ступенькой ниже, где GeForce GTX 1050 оказывается медленнее Radeon RX 560 на высоких разрешениях из-за всего 2 Гбайт видеопамяти, так что эти карты больше подходят для игр в 1920 х 1080 и 1280 х 720.
Наконец, бюджетный сегмент текущего поколения лучше всех представляют Radeon RX 550 и GeForce GT 1030, производительности которых достаточно для популярных киберспортивных игр.
Основные Характеристики
Если Вы не следите за рынком видеокарт, то вам будет сложно определить различия между графическими процессорами nVidia. Подобные характеристики особенно важно учитывать при покупке видеокарт. И для лучшего ориентирования в характеристиках различных GPU от nVidia, была составлена таблица, в которой перечислены все графические процессоры (GPU) от nVidia выпущенные на момент написания статьи:
Процессор | Частота ядра | Частота памяти | Разрядность шины памяти | Частота передачи данных | Пикселей за такт | DirectX |
GeForce4 MX 420 | 250 МГц | 166 МГц | 128-бит | 2.6 Гб/с | 1 | 7 |
GeForce4 MX 440 SE | 250 МГц | 333 МГц | 64-бит | 2.6 Гб/с | 1 | 7 |
GeForce4 MX 440 | 270 МГц | 400 МГц | 128-бит | 6.4 Гб/с | 1 | 7 |
GeForce 4 MX 440 AGP 8x | 275 МГц | 512 МГц | 128-бит | 8.1 Гб/с | 1 | 7 |
GeForce 4 MX 460 | 300 МГц | 550 МГц | 128-бит | 8.8 Гб/с | 1 | 7 |
GeForce MX 4000 | 250 МГц | * | 32-, 64- или 128-бит | * | 1 | 7 |
GeForce4 Ti 4200 | 250 МГц | 514 МГц (64 МБ) или 444 МГц (128 МБ) | 128-бит | 8.2 Гб/с (64 МБ) или 7.1 Гб/с (128 МБ) | 4 | 8.1 |
GeForce4 Ti 4200 AGP 8x | 250 МГц | 500 МГц | 128-бит | 8 Гб/с | 4 | 8.1 |
GeForce4 Ti 4400 | 275 МГц | 550 МГц | 128-бит | 8.8 Гб/с | 4 | 8.1 |
GeForce4 Ti 4600 | 300 МГц | 650 МГц | 128-бит | 10.4 Гб/с | 4 | 8.1 |
GeForce4 Ti 4800 SE | 275 МГц | 550 МГц | 128-бит | 8.8 Гб/с | 4 | 8.1 |
GeForce4 Ti 4800 | 300 МГц | 650 МГц | 128-бит | 10.4 Гб/с | 4 | 8.1 |
GeForce FX 5200 | 250 МГц | 400 МГц | 64-бит или 128-бит | 3.2 Гб/с или 6.4 Гб/с | 4 | 9.0 |
GeForce FX 5200 Ultra | 350 МГц | 650 МГц | 128-бит | 10.4 Гб/с | 4 | 9.0 |
GeForce FX 5600 | 325 МГц | 550 МГц | 128-бит | 8.8 Гб/с | 4 | 9.0 |
GeForce FX 5500 | 270 МГц | 400 МГц | 64-бит или 128-бит | 3.2 Гб/с или 6.4 Гб/с | 4 | 9.0 |
GeForce FX 5600 Ultra | 500 МГц | 800 МГц | 128-бит | 12.8 Гб/с | 4 | 9.0 |
GeForce FX 5700 LE | 250 МГц | 400 МГц | 128-бит | 6.4 Гб/с | 4 | 9.0 |
GeForce FX 5700 | 425 МГц | 600 МГц | 128-бит | 9,6 Гб/с | 4 | 9.0 |
GeForce FX 5700 Ultra | 475 МГц | 900 МГц | 128-бит | 14.4 Гб/с | 4 | 9.0 |
GeForce FX 5800 | 400 МГц | 900 МГц | 128-бит | 14.4 Гб/с | 8 | 9.0 |
GeForce FX 5800 Ultra | 500 МГц | 1 ГГц | 128-бит | 16 Гб/с | 8 | 9.0 |
GeForce FX 5900 XT | 390 МГц | 680 МГц | 256-бит | 21.7 Гб/с | 8 | 9.0 |
GeForce FX 5900 | 400 МГц | 850 МГц | 256-бит | 27.2 Гб/с | 8 | 9.0 |
GeForce FX 5900 Ultra | 450 МГц | 850 МГц | 256-бит | 27.2 Гб/с | 8 | 9.0 |
GeForce FX 5950 Ultra | 475 МГц | 950 МГц | 256-бит | 30.4 Гб/с | 8 | 9.0 |
GeForce PCX 5300 | 325 МГц | 650 МГц | 128-бит | 10.4 Гб/с | 4 | 9.0 |
GeForce PCX 5750 | 475 МГц | 900 МГц | 128-бит | 14.4 Гб/с | 4 | 9.0 |
GeForce PCX 5900 | 350 МГц | 500 МГц | 256-бит | 17.6 Гб/с | 8 | 9.0 |
GeForce PCX 5950 | 475 МГц | 900 МГц | 256-бит | 30.4 Гб/с | 8 | 9.0 |
GeForce 6200 | 300 МГц | 550 МГц | 128-бит | 8.8 Гб/с | 4 | 9.0c |
GeForce 6200 LE | 350 МГц | 550 МГц | 64-бит | 4.4 Гб/с | 2 | 9.0c |
GeForce 6200 (TC) | 350 МГц | 666 МГц * | 32-бит или 64-бит | 2.66 Гб/с или 5.32 Гб/с * | 4 | 9.0c |
GeForce 6500 (TC) | 400 МГц | 666 МГц * | 32-бит или 64-бит | 2.66 Гб/с или 5.32 Гб/с * | 4 | 9.0c |
GeForce 6600 | 300 МГц | 550 МГц * | 64-бит или 128-бит | 4.4 Гб/с или 8.8 Гб/с * | 8 | 9.0c |
GeForce 6600 DDR2 | 350 МГц | 800 МГц * | 128-бит | 12.8 Гб/с * | 8 | 9.0c |
GeForce 6600 LE | 300 МГц | * | 64-бит или 128-бит | * | 4 | 9.0c |
GeForce 6600 GT | 500 МГц | 1 ГГц | 128-бит | 16 Гб/с | 8 | 9.0c |
GeForce 6600 GT AGP | 500 МГц | 900 МГц | 128-бит | 14.4 Гб/с | 8 | 9.0c |
GeForce 6800 LE | 300 МГц | 700 МГц | 256-бит | 22.4 Гб/с | 8 | 9.0c |
GeForce 6800 XT | 325 МГц | 600 МГц | 256 битs | 19.2 Гб/с | 8 | 9.0c |
GeForce 6800 XT AGP | 325 МГц | 700 МГц | 256 битs | 22.4 Гб/с | 8 | 9.0c |
GeForce 6800 | 325 МГц | 600 МГц | 256-бит | 19.2 Гб/с | 12 | 9.0c |
GeForce 6800 AGP | 325 МГц | 700 МГц | 256-бит | 22.4 Гб/с | 12 | 9.0c |
GeForce 6800 GS | 425 МГц | 1 ГГц | 256-бит | 32 Гб/с | 12 | 9.0c |
GeForce 6800 GS AGP | 350 МГц | 1 ГГц | 256-бит | 32 Гб/с | 12 | 9.0c |
GeForce 6800 GT | 350 МГц | 1 ГГц | 256-бит | 32 Гб/с | 16 | 9.0c |
GeForce 6800 Ultra | 400 МГц | 1.1 ГГц | 256-бит | 35.2 Гб/с | 16 | 9.0c |
GeForce 6800 Ultra Extreme | 450 МГц | 1.1 ГГц | 256-бит | 35.2 Гб/с | 16 | 9.0c |
GeForce 7100 GS (TC) | 350 МГц | 666 МГц * | 64-бит | 5.3 Гб/с * | 4 | 9.0c |
GeForce 7200 GS (TC) | 450 МГц | 800 МГц * | 64-бит | 6.4 Гб/с * | 4 | 9.0c |
GeForce 7300 SE (TC) | 225 МГц | * | 64-бит | * | 4 | 9.0c |
GeForce 7300 LE (TC) | 450 МГц | 648 МГц * | 64-бит | 5.2 Гб/с * | 4 | 9.0c |
GeForce 7300 GS (TC) | 550 МГц | 810 МГц * | 64-бит | 6.5 Гб/с * | 4 | 9.0c |
GeForce 7300 GT (TC) | 350 МГц | 667 МГц | 128-бит | 10.6 Гб/с | 8 | 9.0c |
GeForce 7600 GS | 400 МГц | 800 МГц | 128-бит | 12.8 Гб/с | 12 | 9.0c |
GeForce 7600 GT | 560 МГц | 1.4 ГГц | 128-бит | 22.4 Гб/с | 12 | 9.0c |
GeForce 7800 GS | 375 МГц | 1.2 ГГц | 256-бит | 38.4 Гб/с | 16 | 9.0c |
GeForce 7800 GT | 400 МГц | 1 ГГц | 256-бит | 32 Гб/с | 20 | 9.0c |
GeForce 7800 GTX | 430 МГц | 1.2 ГГц | 256-бит | 38.4 Гб/с | 24 | 9.0c |
GeForce 7800 GTX 512 | 550 МГц | 1.7 ГГц | 256-бит | 54.4 Гб/с | 24 | 9.0c |
GeForce 7900 GS | 450 МГц | 1.32 ГГц | 256-бит | 42.2 Гб/с | 20 | 9.0c |
GeForce 7900 GT | 450 МГц | 1.32 ГГц | 256-бит | 42.2 Гб/с | 24 | 9.0c |
GeForce 7900 GTX | 650 МГц | 1.6 ГГц | 256-бит | 51.2 Гб/с | 24 | 9.0c |
GeForce 7950 GT | 550 МГц | 1.4 ГГц | 256-бит | 44.8 Гб/с | 24 | 9.0c |
GeForce 7950 GX2 ** | 500 МГц | 1.2 ГГц | 256-бит | 38.4 Гб/с | 24 | 9.0c |
GeForce 8400 GS *** | 450 / 900 МГц | 800 МГц | 64-бит | 6.4 Гб/с | 16 | 10 |
GeForce 8500 GT *** | 450 / 900 МГц | 666 МГц или 800 МГц | 128-бит | 10.6 Гб/с или 12.8 Гб/с | 16 | 10 |
GeForce 8600 GT DDR2 *** | 540 / 1.18 ГГц | 666 МГц или 800 МГц | 128-бит | 10.6 Гб/с или 12.8 Гб/с | 32 | 10 |
GeForce 8600 GT GDDR3 *** | 540 / 1.18 ГГц | 1.4 ГГц | 128-бит | 22.4 Гб/с | 32 | 10 |
GeForce 8600 GTS *** | 675 / 1.45 ГГц | 2 ГГц | 128-бит | 32 Гб/с | 32 | 10 |
GeForce 8800 GS *** ^ | 550 / 1,375 МГц | 1.6 ГГц | 192-бит | 38.4 Гб/с | 96 | 10 |
GeForce 8800 GT *** ^ | 600 / 1.5 ГГц | 1.8 ГГц | 256-бит | 57.6 Гб/с | 112 | 10 |
GeForce 8800 GTS *** | 500 / 1.2 ГГц | 1.6 ГГц | 320-бит | 64 Гб/с | 96 | 10 |
GeForce 8800 GTS 512 *** ^ | 650 / 1,625 МГц | 1.94 ГГц | 256-бит | 62.08 Гб/с | 128 | 10 |
GeForce 8800 GTX *** | 575 / 1.35 ГГц | 1.8 ГГц | 384-бит | 86.4 Гб/с | 128 | 10 |
GeForce 8800 Ultra *** | 612 / 1.5 ГГц | 2.16 ГГц | 384-бит | 103.6 Гб/с | 128 | 10 |
GeForce 9400 GT *** ^ | 550 / 1.4 ГГц | 800 МГц | 128-бит | 12.8 Гб/с | 16 | 10 |
GeForce 9500 GT *** ^ | 550 / 1.4 ГГц | 1 ГГц (DDR2) или 1.6 ГГц (GDDR3) | 128-бит | 16 Гб/с (DDR2) или 25.6 Гб/с (GDDR3) | 32 | 10 |
GeForce 9600 GSO *** ^ | 550 / 1.35 ГГц | 1.6 ГГц | 192-бит | 38.4 Гб/с | 96 | 10 |
GeForce 9600 GSO 512 *** ^ | 650 / 1,625 МГц | 1.8 ГГц | 256-бит | 57.6 Гб/с | 48 | 10 |
GeForce 9600 GT *** ^ | 600 / 1.5 ГГц или 650 / 1,625 МГц | 1.8 ГГц | 256-бит | 57.6 Гб/с | 64 | 10 |
GeForce 9800 GT *** ^ | 600 / 1,500 ГГц | 1.8 ГГц | 256-бит | 57.6 Гб/с | 112 | 10 |
GeForce 9800 GTX *** ^ | 675 / 1,688 МГц | 2.2 ГГц | 256-бит | 70.4 Гб/с | 128 | 10 |
GeForce 9800 GTX+ *** ^ | 738 / 1,836 МГц | 2.2 ГГц | 256-бит | 70.4 Гб/с | 128 | 10 |
GeForce 9800 GX2 ** *** ^ | 600 / 1.5 ГГц | 2 ГГц | 256-бит | 64 Гб/с | 128 | 10 |
GeForce G 100 *** ^ | 567 / 1.4 ГГц | 1 ГГц | 64-бит | 8 Гб/с | 8 | 10 |
GeForce GT 120 *** ^ | 500 / 1.4 ГГц | 1 ГГц | 128-бит | 16 Гб/с | 32 | 10 |
GeForce GT 130 *** ^ | 500 / 1.25 ГГц | 1 ГГц | 192-бит | 24 Гб/с | 48 | 10 |
GeForce GTS 150 *** ^ | 738 / 1,836 МГц | 2 ГГц | 256-бит | 64 Гб/с | 128 | 10 |
GeForce 205 *** ^ | 589 / 1,402 МГц | 1 ГГц | 64-бит | 8 Гб/с | 8 | 10.1 |
GeForce 210 *** ^ | 589 / 1,402 МГц | 1 ГГц | 64-бит | 8 Гб/с | 16 | 10.1 |
GeForce GT 220 *** ^ | 625 / 1,360 МГц | 1.58 ГГц | 128-бит | 25.28 Гб/с | 48 | 10.1 |
GeForce GT 240 *** ^ | 550 / 1,340 МГц | 1.8 ГГц (DDR3) или 2 ГГц (GDDR3) или 3.4 ГГц (GDDR5) | 128-бит | 28.8 Гб/с (DDR3) или 32 Гб/с (GDDR3) или 54.4 Гб/с (GDDR5) | 96 | 10.1 |
GeForce GTS 240 *** ^ | 675 / 1,620 МГц | 2.2 ГГц | 256-бит | 70.4 Гб/с | 112 | 10 |
GeForce GTS 250 512 МБ *** ^ | 675 / 1,620 МГц | 2 ГГц | 256-бит | 64 Гб/с | 128 | 10 |
GeForce GTS 250 1 GB *** ^ | 738 / 1,836 МГц | 2.2 ГГц | 256-бит | 70.4 Гб/с | 128 | 10 |
GeForce GTX 260 *** ^ | 576 / 1,242 МГц | 2 ГГц | 448-бит | 112 Гб/с | 192 | 10 |
GeForce GTX 260/216 *** ^ | 576 / 1,242 МГц | 2 ГГц | 448-бит | 112 Гб/с | 216 | 10 |
GeForce GTX 275 *** ^ | 633 / 1,404 МГц | 2.268 ГГц | 448-бит | 127 Гб/с | 240 | 10 |
GeForce GTX 280 *** ^ | 602 / 1,296 МГц | 2.21 ГГц | 512-бит | 141.7 Гб/с | 240 | 10 |
GeForce GTX 285 *** ^ | 648 / 1,476 МГц | 2.48 ГГц | 512-бит | 159 Гб/с | 240 | 10 |
GeForce GTX 295 ** *** ^ | 576 / 1,242 МГц | 2 ГГц | 448-бит | 112 Гб/с | 240 | 10 |
GeForce 310 *** ^ | 589 / 1,402 МГц | 1 ГГц | 64-бит | 8 Гб/с | 16 | 10.1 |
GeForce 315 *** ^ | 475 / 1,100 МГц | 1.58 ГГц | 64-бит | 12.6 Гб/с | 48 | 10.1 |
GeForce GT 320 *** ^ | 540 / 1,302 МГц | 1.58 ГГц | 128-бит | 25.3 Гб/с | 72 | 10.1 |
GeForce GT 330 *** ^ | 500 / 1,250 МГц или 550 / 1,340 МГц | 1 ГГц или 1.6 ГГц | 128-бит, 192-бит, или 256-бит | (depends on config) | 96 или 112 | 10 |
GeForce GT 340 *** ^ | 550 / 1,340 МГц | 3.4 ГГц | 128-бит | 54.4 Гб/с | 96 | 10.1 |
GeForce GT 420 *** ^ | 700 / 1,400 МГц | 1.8 ГГц | 128-бит | 28.8 Гб/с | 48 | 11 |
GeForce GT 430 *** ^ | 700 / 1,400 МГц | 1.8 ГГц | 128-бит | 28.8 Гб/с | 96 | 11 |
GeForce GT 440 *** ^ | 594 / 1,189 МГц | 1.6 (1.5 GB) или 1.8 ГГц (3 GB) | 192-бит | 38.4 (1.5 GB) или 43.2 Гб/с (3 GB) | 144 | 11 |
GeForce GTS 450 *** ^ | 783 / 1,566 МГц | 3.6 ГГц | 128-бит | 57.7 Гб/с | 192 | 11 |
GeForce GTX 460 SE *** ^ | 650 / 1,300 МГц | 3.4 ГГц | 256-бит | 108.8 Гб/с | 288 | 11 |
GeForce GTX 460 *** ^ | 675 / 1,350 МГц | 3.6 ГГц | 192-бит (768 МБ) или 256-бит (1 GB) | 86.4 Гб/с (768 МБ) или 115.2 Гб/с (1 GB) | 336 | 11 |
GeForce GTX 465 *** ^ | 607 / 1,215 МГц | 3,206 МГц | 256-бит | 102.6 Гб/с | 352 | 11 |
GeForce GTX 470 *** ^ | 607 / 1,215 МГц | 3,348 МГц | 320-бит | 133.9 Гб/с | 448 | 11 |
GeForce GTX 480 *** ^ | 700 / 1,401 МГц | 3,696 МГц | 384-бит | 177.4 Гб/с | 480 | 11 |
GeForce GTX 560 Ti *** ^ | 822 / 1,644 МГц | 4,008 МГц | 256-бит | 128.3 Гб/с | 384 | 11 |
GeForce GTX 570 *** ^ | 732 / 1,464 МГц | 3.8 ГГц | 320-бит | 152 Гб/с | 480 | 11 |
GeForce GTX 580 *** ^ | 772 / 1,544 МГц | 4,008 МГц | 384-бит | 192.4 Гб/с | 512 | 11 |
GeForce GTX 580 | 607 / 1,215 МГц x2 | 3,414 МГц x2 | 384-бит x2 | 163.9 Гб/с x2 | 512 x2 | 11 |
* производитель может установить различную тактовую частоту памяти и частоту передачи данных, поэтому не у всех видеокарт на этом графическом процессоре одинаковая спецификация. Частота передачи данных будет зависеть от разрядности шины и используемой тактовой частоты памяти.
** GeForce 7950 GX2, GeForce 9800 GX2 и GeForce GTX 295 используют два графических процессора параллельно (режим SLI). Опубликованные спецификации только для одного графического процессора (GPU).
*** Серия GeForce 8, 9, 100, 200, 300 и 400 используют удвоенную частоту ядра. Шейдерные блоки объединены – это значит, что эти чипы не имеют разделенных пиксельных шейдеров и модулей vertex-шейдеров.
^ Основанный на PCI Express 2.0, который удваивает доступную пропускную способность от 2.5 Гбайт/с до 5 Гбайт/с (если материнская плата поддерживает PCI Express 2.0).
(TC) означает TurboCache. TurboCache — технология, которая позволяет видеокарте моделировать больше видеопамяти, используя часть оперативной памяти (RAM).
Обильность аббревиатур, в первых поколениях GPU от NVIDIA, может слегка запутать. Чип GeForce FX 5700 работает на более высокой частоте, чем GeForce FX 5900, GeForce FX 5900 Ultra и GeForce FX 5900 XT, и это может заставить Вас думать, что GeForce FX 5700 быстрее чем, серия 5900.
Но это не так. Графический процессор GeForce FX 5900 работает на шине 256 бит, в то время как FX 5700 работает на шине 128 бит.
Другой пример. По таблице можно подумать, что GeForce 6600 GT более быстрый, чем GeForce 6800 из-за более высокой тактовой частоты (500 МГц против 325 МГц). Но GeForce 6800 работает на шине 256 бит, в то время как GeForce 6600 GT на 128 бит, а также GeForce 6800 обрабатывает 12 пикселей за такт, в то время как GeForce 6600 GT обрабатывает восемь пикселей за такт.
В то время, как ATI использует обозначение «XT», чтобы указать высокопроизводительные чипы (пример: Radeon 9800 XT), NVIDIA использует те же самые буквы, чтобы указать низкопроизводительные чипы.
Что касается поддержек различных версий DirectX, смотрите следующую таблицу: