Profile banner for nexr_technologies_se

32 followers

NeXR_Technologies_SE

Last live 2 months ago

Everyone’s gateway to extended realities! Wir digitalisieren, animieren und entwickeln zukunftsorientierte Produkte und Services! Unser Know-How und unsere Pipeline bedient das gesamte Spektrum der Kreativ- und Technikindustrie, sowie Film-, Gesundheits-, Mode-, Bildungs- und Kulturbranche.

Panel Content
Wir sind ein börsennotiertes Unternehmen mit Fokus auf Virtual-Reality-Anwendungen. Den Kern bilden personalisierte, digitale Avatare, die Anwender*innen dabei unterstützen, Verrichtungen des alltäglichen Lebens effizienter zu erledigen. Hierzu gehören die Visualisierung von Trainingserfolgen am eigenen Avatar (NeXR Fitness), das virtuelle Anprobieren von Kleidungsstücken (NeXR Fashion) oder die Teilnahme an sowie Gestaltung von virtuellen Live-Veranstaltungen (NeXR Show) und Remote-Präsentationen (NeXR Seminar). NeXR Technologies verfügt über Kernkompetenzen in den Bereichen 3D Scannerentwicklung, Motion Capture, Virtual Reality, Virtual Production sowie über eine tiefe Expertise in den Bereichen Gaming und datenbasierten Geschäftsmodellen. Auf Basis zweier selbstentwickelter Multiuser- und Multipurpose Plattformen bieten wir Produkte und Lösungen für zahlreiche Anwenderbranchen.
Panel Content
#VR Investors Day **Veranstaltungsort:** VR + Twitch **Datum:** 08.06.2021 **Veranstalter:** Montega AG Donner & Reuschel (strategischer Kapitalmarktpartner) **Entwicklung:** NeXR Technologies SE **Präsentierende:** Christoph Vilanek, CEO der freenet AG Jürgen Hermann, CEO der q.beyond AG Matthias Hach, CEO der wallstreet:online AG, Joachim Kuhn, CEO der va-Q-tec AG Philipp Steinhäuser, CFO der home24 SE Markus Peuler, CEO der NeXR Technologies SE **Moderator:** Pierre Gröning, Head of Corporate Brokerage der Montega AG **Medienpartner:** wallstreet:online Börse Online 4investors Euro am Sonntag boersengefluester.de **Ablauf:** **10:00 – 10:15** Pierre Gröning (Montega) eröffnet den VR Investors Day **10:15 – 10:35** Präsentation der wallstreet:online AG **10:35 – 10:45** Pause **10:45 – 11:05** Präsentation der freenet AG **11:05 – 11:15** Pause **11:15 – 11:35** Präsentation von NeXR Technologies **11:35 – 14:00** Pause **14:00 – 14:15** Pierre Gröning (Montega) eröffnet den zweiten Teil des Events **14:15 - 14:35** Präsentation der q.beyond AG **14:35 - 14:45** Pause **14:45 - 15:05** Präsentation der home24 SE **15:05 - 15:15** Pause **15:15 - 15:35** Präsentation der va-Q-tec AG
Panel Content
#Hintergrundinformationen Techniken: **3D Körperscan:** Der Körperscanner (3D Instagraph) besteht aus mehr als 100 Kameras, welche zeitgleich die im Scanner stehende Person ablichten. Aus diesen Bildern wird mittels KI ein Avatar erstellt. Im Anschluss kommt es zur QA und es werden ggf. noch manuelle Anpassungen am Aussehen des Avatars vorgenommen, Kleidung gewechselt, Accessoires hinzugefügt etc. **VR Development:** Bei der Entwicklung der Räume ist es wichtig den Präsentierenden als auch den Teilnehmern eine gute UX zu bieten. Da für viele Personen VR noch ein sehr neues Themenfeld ist, muss das Design so angepasst und intuitiv sein, dass es für jeden verständlich ist, was zu tun ist und wie man am VR Investors Day teilnimmt. **Raum 1 (Yacht)** Ehe man am virtuellen Event (in VR) teilnehmen kann, befindet sich jeder Teilnehmer auf einer Yacht auf der er sich registriert und seinen Namen eingibt. Dies dient den Präsentierenden später dazu die Teilnehmenden direkt ansprechen zu können. **Raum 2 (Veranstaltungsraum)** In diesem gibt es einen festen Bereich für die Präsentierenden und den Moderator. Im Hintergrund befindet sich ein großer Bildschirm auf dem separate Inhalte der Präsentierenden eingeblendet werden können um das Gesprochene zu visualisieren. Die Teilnehmenden sind auf Sesseln vor der Präsentationsfläche positioniert und können Umrisse von Köpfen und Händen der anderen Teilnehmer sehen. **Full Performance Capture** Beim Full Performance Capture werden die Bewegungen und Mimiken der Präsentierenden und des Moderators aufgenommen und in Echtzeit auf den Avatar projiziert. Die Mischung aus Motion Capture und Face Capture, also die Bewegungen des Körpers als auch die Mimiken werden hierbei erfasst. Die Daten werden dann über die UnReal Engine in Echtzeit auf die Avatare projiziert und in die virtuelle Umgebung gestreamt. Von dort aus werden sie sowohl in VR (auf der Oculus Quest 2) als auch bei Twitch in 2D gestreamt.