Digitale Gefühle & Digitale Trauer. Linz | AT · 2018 (© PP · # 3172 · www.ewigesarchiv.at) Eine Künstlerin erzählte mir vor kurzem, dass bei einem Kongress der Stand der Dinge von Design für das kommende Leben-/Überleben von Menschen am Mars präsentiert wurde, total ernsthaft und avanciert. Die Besiedlung könnte laut der Projektgruppe in etwa sechs Jahren starten. Vermutlich folgerichtig, nachdem das Leben auf der Erde mehr und mehr zerstört wird, den nächsten Planeten „in Angriff“ zu nehmen.
Adäquat dazu ist es wohl auch wichtig, sich Gedanken über Gesichtsersatz, digitale Gefühle und digitale Trauerbegleitung zu machen. Hier drei Beispiele von der ars electronica 2019:
obere Reihe:
Takayuki Todo (JP)
SEER: Simulative Emotional Expression Robot
SEER ist ein kompakter humanoider Roboter, der als Ergebnis einer intensiven Forschung über den Blick und
die menschliche Mimik entwickelt wurde. Der Roboter ist in der Lage, die Blickrichtung auf einen bestimmten Punkt zu fokussieren, ohne sich von der Bewegung des Halses täuschen zu lassen. Dadurch scheint der Roboter seine eigenen Absichten zu haben, den Menschen und der Umwelt zu folgen und auf sie zu achten.
Mit Hilfe eines Kamerasensors hat er während der Beobachtung der Augen einen interaktiven Blick. Außerdem konnte ich durch das Zeichnen der Augenbrauenkurve mit weichem, elastischem Draht den Ausdruck des Roboters so bereichern, als ob er von Emotionen erfüllt wäre.
Der Zweck meiner Forschung und Entwicklung ist nicht, das philosophische Thema "Wird ein Roboter (oder Computer) den Verstand oder die Emotionen des Menschen erlangen" zu beantworten, sondern den Sinn bewusster Emotionen, wie sie ein Mensch erzeugen kann, darzustellen. Ich denke, dass es möglich ist, eine menschenähnliche Kommunikation darzustellen, indem man ein adäquates Interaktionssystem zwischen
emotionaler Wahrnehmung und Ausdruck konstruiert. Wenn wir verstehen und uns mit Robotern identifizieren, die die Funktionen und Nutzungen emotionaler Äußerungen aus der Interaktion mit Menschen lernen können, sie entsprechend mit Situationen und Kontexten beherrschen, könnten wir sie dann von denen mit
echtem Verstand und Emotionen unterscheiden?
Als ersten Schritt, um dies zu realisieren, hielt ich zwei Bedingungen für notwendig: die Augen, um das Aussehen des Gesichts eines anderen zu erkennen, und das Gesicht, das für das Auge des Betrachters attraktiv gemacht werden sollte.
gr. Foto links und darunter:
Mother of Machine Sarah Petkus / US
noodlefeet.zoness.com
Der Roboter,, NoodleFeet" ist die physische Manifestation der gleichnamigen Comic-Figur, gebaut und „großgezogen" von der Kinetik- und Robotik-Künstlerin Sarah Petkus - der,,Mutter der Maschine". Seit 2015 entwickelt sie ihren,,Sprössling" ständig weiter, sodass er immer neue Fähigkeiten erlernt: Bilderkennung hilft ihm, sein Umfeld wahrzunehmen und zu verstehen. Auf Basis von Machine Learning lernt er Entscheidungen zu treffen. Sein Markenzeichen sind seine vier in Schwimmnudeln verpackten Beine, die auch als Schmeck-, Greif- und Tastmodule dienen und „NoodleFeet" seinen Namen verleihen.
Sarah Petkus sieht sich selbst als seine Mutter: Sie hilft ihm und entwickelt ihn weiter, bis er fähig ist,,,eigene Wege zu gehen". Mit dem Projekt Mother of Machine möchte die Künstlerin andere Erfinderinnen dazu anregen, ihre Ideen als ihre,,Kinder" zu betrachten und ihnen zu helfen, auf eigenen Beinen zu
stehen".
gr. Foto rechts und darunter:
Digital Shaman Project, Etsuko Ichihara / JP
Installation
tデジタル シューマンプロジェクト
by Etsuko Ichihara
Das Digital Shaman Project ist ein Vorschlag, wie sich technischer Fortschritt auch im Bereich der Trauerarbeit einsetzen lassen könnte.
Dazu wird die 3D-gedruckte Totenmaske einer/eines Verstorbenen angefertigt und auf einen Roboter gelegt. Dieser ist mit einem Bewegungsprogramm ausgestattet, das die physischen Eigenschaften - Persönlichkeit, Sprache, Gesten - des verstorbenen Individuums imitiert, als ob er,,von dessen Geist besessen wäre". Nach 49 Tagen - so lange dauert es nach buddhistischer Überzeugung, bis Verstorbene ins nächste Leben eintreten - verabschiedet sich der Roboter von den Hinterbliebenen und schaltet sich selbst ab.
Die Künstlerin möchte mit ihrem Projekt eine emotionale Beziehung zwischen Mensch und Maschine herstellen. Sie plädiert für neue Technologien auf dem Markt, die auch menschliche Wünsche, Emotionen und Empfindungen berücksichtigen.
Digital Emotions & Digital Grief. Linz | AT – 2018 (© PP – # 3172 – www.ewigesarchiv.at) An artist recently told me that the state of the art of design for the future life/survival of humans on Mars was presented at a congress, totally serious and advanced. According to the project group, colonisation could start in about six years. Presumably the logical thing to do now that life on Earth is being increasingly destroyed is to “tackle” the next planet.
In line with this, it is probably also important to think about face replacement, digital feelings and digital grief counselling. Here are three examples from ars electronica 2019:
Top row:
Takayuki Todo (JP)
SEER: Simulative Emotional Expression Robot
SEER is a compact humanoid robot that was developed as the result of intensive research into the gaze and
human facial expressions. The robot is able to focus its gaze on a specific point without being fooled by the movement of the neck. As a result, the robot appears to have its own intentions, following and paying attention to people and the environment.
With the help of a camera sensor, it has an interactive gaze while observing the eyes. In addition, by drawing the eyebrow curve with soft elastic wire, I was able to enrich the robot’s expression as if it were filled with emotion.
The purpose of my research and development is not to answer the philosophical issue of “will a robot (or computer) gain the mind or emotions of humans”, but to illustrate the sense of conscious emotions that a human can generate. I think that it is possible to represent human-like communication by constructing an adequate interaction system between
emotional perception and expression. If we understand and identify with robots that can learn the functions and uses of emotional expressions from interacting with humans, mastering them appropriately with situations and contexts, we could then distinguish them from those with
from those with real minds and emotions?
As a first step to realise this, I considered two conditions necessary: the eyes to recognise the appearance of another’s face, and the face to be made attractive to the eye of the beholder.
Large photo left and below:
Mother of Machine Sarah Petkus / US
noodlefeet.zoness.com
The robot “NoodleFeet” is the physical manifestation of the comic character of the same name, built and “raised” by kinetics and robotics artist Sarah Petkus – the “Mother of Machine”. Since 2015, she has been constantly developing her “offspring” so that it keeps learning new skills: image recognition helps it to perceive and understand its surroundings. It learns to make decisions based on machine learning. Its trademark are its four legs wrapped in swimming noodles, which also serve as tasting, gripping and tactile modules and give “NoodleFeet” its name.
Sarah Petkus sees herself as his mother: she helps him and develops him further until he is able to “go his own way”. With the Mother of Machine project, the artist wants to encourage other female inventors to see her ideas as their “children” and help them to “stand on their own two feet”.
stand on their own two feet”.
gr. photo on the right and below:
Digital Shaman Project, Etsuko Ichihara / JP
installation
tデジタル シューマンプロジェクト
by Etsuko Ichihara
The Digital Shaman Project is a proposal for how technological progress could also be used in the field of grief counselling.
The 3D-printed death mask of a deceased person is produced and placed on a robot. This is equipped with a movement programme that imitates the physical characteristics – personality, speech, gestures – of the deceased individual, as if it were “possessed by their spirit”. After 49 days – according to Buddhist belief, this is how long it takes for the deceased to enter the next life – the robot says goodbye to the bereaved and switches itself off.
With her project, the artist wants to create an emotional relationship between man and machine. She is in favour of new technologies on the market that also take human wishes, emotions and feelings into account.