Компания NVIDIA в рамках серии видеокарт GeForce RTX 3000 планировала выпустить ещё одну модель — GeForce RTX 3070 Ti с 16 Гбайт памяти. Этот ускоритель долгое время фигурировал в различных базах данных регуляторов, но в итоге так и не появился в продаже. Фотографиями и характеристиками несостоявшейся видеокарты в эталонном исполнении поделился инсайдер MEGAsizeGPU.

Внешне GeForce RTX 3070 Ti 16GB представляла собой точную копию модели с 8 Гбайт памяти, которая в результате и поступила в продажу. Однако характеристиками карты отличаются. Несмотря на то, что в основе версии с 16 Гбайт памяти должен был использоваться такой же графический процессор GA104 на архитектуре Ampere с 6144 ядрами CUDA, 192 тензорными ядрами и 48 ядрами RT, как и у поступившей в продажу версии с 8 Гбайт, сам чип «старшей» модели работал в чуть более высоком диапазоне частот.

Прототип не вышедшей видеокарты GeForce RTX 3070 Ti с 16 Гбайт памяти показался на фото

Как известно, у версии с 8 Гбайт памяти GPU имеет базовую частоту в 1575 МГц, а под нагрузкой разгоняется до 1770 МГц. У 16-Гбайт версии карты, которая так и не поступила в продажу, графический процессор работал на частоте от 1590 до 1800 МГц.

Прототип не вышедшей видеокарты GeForce RTX 3070 Ti с 16 Гбайт памяти показался на фото

Карты отличал не только объём, но также и стандарт видеопамяти. Невыпущенная модель использовала вместо более скоростной памяти GDDR6X менее производительную GDDR6. У модели GeForce RTX 3070 Ti 8GB применяется 256-битный интерфейс памяти и микросхемы GDDR6X со скоростью 19 Гбит/с на контакт. Это обеспечивает пропускную способность памяти на уровне 608 Гбайт/с. Модель с 16 Гбайт памяти должна была получить микросхемы GDDR6 со скоростью 16 Гбит/с на контакт, поддержкой 256-битной шины и пропускной способностью 512 Гбайт/с.

Прототип не вышедшей видеокарты GeForce RTX 3070 Ti с 16 Гбайт памяти показался на фото

К сожалению, инсайдер не поделился данными о производительности GeForce RTX 3070 Ti 16GB. Однако факт поддержки ускорителем актуальных версий графического драйвера NVIDIA даёт надежды на то, что эта информация в перспективе всё-таки будет опубликована.


Источник: 3dnews.ru