
Unlimited Detail обещает сделать самые современные карточки NVidia и ATI бесполезными и рендерить сцены в миллиарды точек на обычном процессоре (CPU), без 3D ускорения(!) вообще. Превышая возможности современных видеокарт в сотни раз (тысячи, по заявлениям авторов).
Обычная графика, как она есть сейчас — состоит из полигонов — плоских поверхностей. Чем лучше Ваша карточка, тем больше полигонов она сможет отрисовать. Но реальные предметы часто округлые, в результате, будучи построенными из ограниченного набора полигонов — они кажутся угловатыми (примеры с горшками, люками, камнями и травой в видео) и хотя есть методы, позволяющие обойти в некотором смысле эти ограничения — в них есть свои проблемы.
Итак, авторы заявляют, что разработали алгоритм поиска, который позволил им рендерить в реальном времени сцены с миллиардами(!) точек. Растеризуется (рендерится) именно точечное облако (point cloud), проще говоря — нет треугольников, есть только много-много-много мелких точек.
Для сравнения я как-то проводил тестирование относительно современной карточки (8600GTS) и она смогла рендерить на 24 fps только 10 миллионов точек. UD заявляет миллиарды(!), то есть 8600ых нужно 100 штук купить. При том, что рост производительности видеокарт составляет всего 22% в год (по данным UD в видео) — ждать аналогичного FPS от 3D ускорителей нам придется долго. (23 года вроде получается? 1.22**23 = 100)
За счет чего у UD скорость? За счет того, что у Вас на экране всего допустим 1024x768 = 786000 точек. Если мы будем знать какая конкретная 3D точка — какой на плоском мониторе соответствует — то нам надо всего-то 786000*25=20 миллионов операций в секунду. Современный процессор может до 3 миллиардов делать. Так что в приниципе — возможно и на процессоре. Но вот какая штука — до сих пор никто толком не нашел алгоритма, чтобы точно вычислять этот минимальный набор точек.
По материалам Хабрахабра.