Ob “Cars”, “Oben” oder “Toy Story” – was den Figuren in animierten Filmen Leben einhaucht, ist das Licht. Je nach der Beschaffenheit einer Oberfläche wird Licht reflektiert, absorbiert oder gestreut. Und das verleiht Figuren sowie Objekten ihr charakteristisches – und realistisches – Aussehen. Das trifft auch auf den Waschbär zu, der oben im Bild auf einer Wiese steht. Das fauchende Tier haben Computerspezialisten von der University of California in San Diego und Berkeley generiert – mithilfe eines neuronalen Computernetzwerks.
Bisherige Computeranimationen stellten Tierfelle nicht besonders lebensecht dar. Das liege daran, dass Tierhaare anders aufgebaut sind als menschliches Haar. So ist der Kern, die Medulla, bei Tierhaaren sehr viel dicker als beim Menschen. Und ein Pelz ist auch deutlich dichter. Dadurch wird Licht, das auf ein Fell fällt, anders gestreut als wenn es auf den Schopf eines Menschen trifft. Hinzu kommt: Die Animation eines behaarten Tieres muss sehr zeitaufwendig programmiert werden. „Unser Modell generiert deutlich exaktere Simulationen und ist zehn Mal schneller als Simulationen nach dem bisherigen Stand der Technik“, erklärt Studienautor Ravi Ramamoorthi.
Der Algorithmus, den Ramamoorthi und seine Kollegen programmiert haben, basiert auf dem Prinzip der Volumenstreuung. Die entsteht beispielsweise, wenn man seine Hand in helles Licht hält und die Finger am Rand rötlich schimmern. Das geschieht, weil die Lichtstrahlen in die Haut eindringen und es dort zu Streuungseffekten kommt. Der neue Algorithmus berechnet nun, wie das Licht auf die durchscheinenden Haare eines Fells trifft, dort in verschiedene Richtungen reflektiert und durch das Haar gestreut wird – und wie die Lichtreflexe erneut auf die umliegenden Haare einfallen. Ihre Ergebnisse veröffentlichten Ravi Ramamoorthi und sein Team in der Fachzeitschrift ACM Transactions on Graphics. Wie die Pelze im bewegten Bild aussehen, zeigt ein Video der Forscher: