Als ich neulich die Apple Vision Pro ausprobierte, hatte ich dieses Bild im Kopf, wie KI, AR/VR und Puppen in naher Zukunft miteinander verschmelzen könnten.
Das größte Problem bei Puppen ist für mich das statische Gesicht und das fehlende Feedback. Beim derzeitigen Stand der Technik gibt es keinen Grund zu der Annahme, dass wir nicht bald Puppen mit leeren Gesichtern sehen werden, auf die AR reale Gesichter projizieren kann, so dass sie Emotionen zeigen, lippensynchron sind oder einfach nur auf lebensechte Art und Weise stillstehen.
Mit "AI", wo es jetzt ist, und ChatGPT rollen auf Miniatur-Modelle als separate Stand-alone-Module verwendet werden, sehe ich keinen Grund, warum man nicht verbunden werden könnte, um mit dieser Technologie als auch arbeiten.
Natürlich bringt das nichts, um eine Puppe zu bewegen, aber das ist das kleinste Teil des "Immersions"-Puzzles, das am meisten Geld kosten wird, wenn man bedenkt, wie viel einfacher und verfügbar die Technologie für das oben Genannte bereits ist.
Stellen Sie sich eine Puppe vor, die Augenkontakt hält und reagiert, mit perfekter Lippensynchronisation, und die weiß, wenn Sie sie berühren. Apples Vision Pro hat bereits eine Handsteuerung von innen nach außen realisiert, so dass die Puppe der Körper und das Headset das Gehirn sein könnte.
Allerdings müsste ich erst sehen, wie das Ganze funktioniert, bevor ich 4.000 Euro für dieses überteuerte Kultspielzeug ausgeben würde, aber die Technik ist da, und ich bin gespannt.