CfP: Special Issue on Accountability Mechanisms in Socio-Technical Systems in the Journal of Responsible Technology

February 8, 2021 in Uncategorized
Journal of Responsible Technology

Journal of Responsible Technology

There are growing demands for greater accountability of socio-technical systems. While there is broader research on a range of issues relating to accountability such as transparency or responsibility, more concrete proposals for developing accountability mechanisms that reflect the socio-technical nature of information systems are less discussed. A key challenge in existing research is how to imagine information systems which promote accountability. While this is part of the wider debate on fairness accountability and transparency principles in the FAccT community and around explainability and bias in artificial intelligence, more concrete proposals for developing socio-technical accountability mechanisms are seldom discussed in detail.

This need for accountability should be reflected both at technical levels, as well as in the socio-technical embeddedness of the systems being developed. By trying to specifically isolate the accountability mechanism within socio-technical systems, we believe it is possible to systematically identify and compare such mechanisms within different systems, as well as push for a debate about the effectiveness of such mechanisms.

This special issue focuses on the mechanisms for tackling issues of accountability in socio-technical systems. The goal is to provide a forum for proposing, describing and evaluating specific accountability mechanisms; exploring the challenges of transforming more abstract notions of accountability into practical implementations; for critical perspectives on different accountability approaches; highlighting the successes as well as challenges from practical use-cases; and so forth.

Recognizing that the challenges are socio-technical, we solicit papers from a range of disciplines. Given the practical focus of this special issue, we specifically encourage papers that discuss accountability from a technical, organisational, legal or STS perspective. We see this special issue as a way to close these gaps by engaging with the existing debate on accountability.

Potential areas of interest for submissions include, but are not limited to:

– user cognition and human behaviour in relation to the design of interfaces that promote accountability
– increasing the accountability of automated decision-making systems and decision-support systems
– ensuring accountability in public sector systems
– perspectives to accountability in the context of real-world technologies
– contributions that bring together technical and non-technical perspectives
– critical examinations of existing accountability technologies and mechanisms aimed at gaining new insights about their socio-technical characteristics and implications.

In all these and further areas, accountability in socio-technical systems needs to be addressed more systematically. The concrete implementation of such accountability mechanisms has so far received only limited attention. Similarly, the challenges arising during such transformations of abstract accountability concepts into concrete implementations as well as the critical evaluation of respective implementations are only rarely covered by existing research. We see this special issue as a way to close these gaps by engaging with the existing debate on accountability.

Submission Guidelines

CfP: https://www.journals.elsevier.com/journal-of-responsible-technology/call-for-papers/accountability-mechanisms-in-socio-technical-systems

Authors should follow the Journal guidelines for paper submission. Full details are available here: https://www.elsevier.com/journals/journal-of-responsible-technology/2666-6596/guide-for-authors

Submissions must be made through the Editorial Manager submissions system via the following link: https://www.editorialmanager.com/jrtech/default.aspx

For questions about special issue submissions or the review process, please don’t hesitate to contact the Guest Editors here: b.wagner@tudelft.nl

Relevant Dates

– Submissions open from 1 February 2021

– Submissions due by 30 June 2021

Guest Editors
– Ben Wagner, TU Delft
– Jat Singh, University of Cambridge
– Frank Pallas, TU-Berlin
– Florian Cech, TU Vienna
– Soheil Human, WU Vienna

The Sustainable Computing Lab; Version 2020

April 30, 2020 in Uncategorized

The Sustainable Computing Lab; Version 2020

Soheil Human and Ben Wagner, May 2020

After 4 years of successful work, last months we became involved in an internal discussion to find new ways to improve our internal processes, increase our academic and societal impact, provide a better enabling space for our members, and expand our network of partners. After several rounds of digital and in-person discussions, the lab has exciting news:

The Lab has a new name

From now on, the lab is not anymore called “Privacy and Sustainable Computing Lab” but:

The “Sustainable Computing Lab“!

The Lab has a new logo

Sustainable Computing Lab

The Lab has a new website

Our new url is: https://www.sustainablecomputing.eu

The new website is designed and implemented by:
Soheil Hosseini
Hooman Habibinia

Leadership Transition

Florian CechSoheil Human, Matthias C. Kettemann, and Eliška Pírková have joined Sabrina Kirrane, Axel Polleres, and Ben Wagner in the management board. Sarah Spiekermann has left the management board and taking a new role as a member of the advisory board.

Here is our new management board:

Soheil Human and Ben Wagner are now both Directors of the Sustainable Computing Lab.

Sustainable Computing Lab

New Research and Working Groups

The Sustainable Computing Lab is highly interdisciplinary and people from different disciplines work together in our projects. In order to provide interdisciplinary enabling spaces for people with shared interests, the lab will consist of a set of research and working groups. Our research groups are more involved in publicly funded research projects and our working groups are mainly focused on community building. Here is a list of our research and working groups:

Die heimliche und die unheimliche Seite von KI: Alexa, was machst du da mit mir?

September 2, 2019 in Uncategorized
Esther Görnemann

Teddybären alles erzählen, ist okay. Digitalen Sprachassistenten alles erzählen, ist riskant, aber nahezu unausweichlich. Und das ist ein Problem. Ein Essay. VON ESTHER GÖRNEMANN

Wer einen Sprachassistenten in seine Wohnung einlädt, beginnt oft spielerisch mit Scherzfragen, seinen neuen digitalen Mitbewohner kennenzulernen. „Alexa, bin ich schön? Was hältst du von Siri? Hast du Hunger?“ Mit der Zeit lernen die Besitzer, routinierter mit dem Gerät umzugehen. Sie rufen gekonnt kurze Befehle in die sieben Mikrofone, nutzen die richtigen Worte, kennen die Namen aller wichtigen Skills und haben den Assistenten zum zentralen Kontrollknoten des smarten Heims ernannt. Der Nutzer hat dann entwickelt, was Psychologen ein mentales Modell nennen: ein ungefähres Verständnis dafür, wie dieser Agent funktioniert, und wie er zu bedienen ist.

Aus Forschungssicht wird es besonders interessant, wenn dieses mentale Modell plötzlich nicht mehr ausreicht, um das Verhalten des Assistenten zu erklären. Wenn Alexa scheinbar grundlos den Befehl verweigert, ein verbundenes Gerät oder einen Radiosender plötzlich nicht mehr findet, oder einfach partout nicht verstehen will. Nicht wenige Nutzer beginnen dann, sie zu beleidigen und zu beschimpfen, als säße in dem kleinen Zylinder ein Mensch, den man nur laut genug anschreien muss, damit er gefügig wird.

Das technische Verständnis spielt eine Rolle

So widersinnig dieses Verhalten auf den ersten Blick scheint, so natürlich ist es auch. Als Menschen besitzen wir ein reicheres Verständnis davon, wie Menschen „funktionieren“ als davon, wie ein Sprachassistent funktioniert. Wenn unser Erklärungsmodell der Maschine plötzlich nicht mehr ausreicht, suchen wir – intuitiv und unbewusst – menschliche Erklärungen für ihr Verhalten. Es überrascht kaum, dass gerade die Nutzer eine stärkere Tendenz haben, ihren Sprachassistenten zu vermenschlichen, die sich selbst nur ein geringes technisches Verständnis attestieren.

Auch wer in seinem Leben nur wenig soziale Kontakte hat, neigt eher dazu, Maschinen – oder auch Haustiere – zu vermenschlichen. Ist der Mensch einsam, dann kann er das Bedürfnis nach Nähe hilfsweise erfüllen, indem er mit einem Sprachassistenten, einem Roboter oder auch einem Haustier spricht und interagiert, als sei es ein Mensch. Vor allem aber sind es Kinder, die dazu neigen, eine enge soziale Verbundenheit zu Gegenständen aufzubauen. Die starke Bindung zum Lieblingskuscheltier äußert sich dann meist darin, dass dem Teddy ein eigenes Gefühlsleben und menschliche Empfindungen zugesprochen werden. Der wichtigste Auslöser für Vermenschlichung ist ein menschenähnliches Aussehen. Hier allerdings sind wir nicht wählerisch: Selbst Autoscheinwerfer werden instinktiv als Gesicht interpretiert und aktivieren bei der Betrachtung die gleichen Hirnareale, die für das Erkennen menschlicher Gesichter zuständig sind.

Der Teddy hat kein Gedächtnis

Was beim Scheinwerfer oder Teddy kein Problem ist, kann im Umgang mit digitalen Assistenten aber durchaus kritisch werden. Denn diese haben ein Gedächtnis. Und sie sind verbunden mit globalen Datennetzwerken, deren Fähigkeiten weitestgehend im Dunklen liegen.

Bei Sprachassistenten werden subtile Reize eingesetzt, die uns verleiten sollen, sie zu vermenschlichen. Dazu gehören eine menschliche Identität, verbale und non-verbale Reize. Alexas Identität drückt sich nicht nur in ihrem menschlichen Vornamen, sondern auch in ihrer weiblichen Stimme aus, die nicht selten in der Ich-Form zu ihrem Besitzer spricht. Sprachassistenten versuchen, mit uns menschliche Dialoge zu führen – wenn auch noch äußerst rudimentär und bislang nicht zufriedenstellend. Manche ihrer Antworten suggerieren Empathie, Humor, Interessen oder Meinungen. Geradezu absurd wird das, wenn Googles Duplex Technologie sich räuspert und mit „hmm“ und „ahm“ den menschlichen Sprachfluss imitiert.

Menschliches wird bewusst eingesetzt

All diese Schlüsselreize sind natürlich kein Zufallsprodukt, sie sind das Ergebnis akribisch geplanter und detailliert umgesetzter Entwicklungsprozesse. Menschliche Attribute werden ganz bewusst und gezielt eingesetzt, denn sie üben einen erheblichen Einfluss auf die Nutzer aus. Eine vermenschlichte Maschine ruft ähnliche Emotionen und soziale Interaktionsmuster hervor, wie ein Mensch. Kurz: Wir behandeln sie mehr wie einen Menschen und weniger wie eine Maschine.

Die Entwickler der digital vernetzten Technologie, mit der wir unseren Alltag teilen und kommunizieren, haben ein starkes Interesse daran, dass wir etwas Menschliches in ihrer Technik sehen. Menschliche Merkmale wecken unser Vertrauen.

Nutzer gehen leichter und schneller eine soziale Bindung mit einer vermenschlichten Maschine ein. Die Entwicklung einer vertrauensvollen zwischenmenschlichen Beziehung führt dazu, dass die Benutzer mehr Intimität zulassen und eher geneigt sind, persönliche Informationen zu teilen.

Sie fühlen Empathie, sprechen natürlicher, grüßen und verabschieden sich. Sie schätzen die Qualität von Serviceleistungen signifikant höher ein und beurteilen einen vermenschlichten Agenten als kompetenter, vertrauenswürdiger und überzeugender als einen Assistenten ohne menschliche Attribute.

Kinder sind besonders anfällig

Wieder sind diese Tendenzen bei Kindern, die mit Sprachassistenten interagieren, besonders stark ausgeprägt. Der Grund hierfür ist, dass Kinder schon früh über soziale Kompetenzen verfügen. Sie erlernen die Fähigkeit, Bewusstseinsvorgänge – beispielsweise Gefühle, Bedürfnisse und Absichten – in sich selbst und in anderen Menschen zu erkennen. Vergleichsweise gering ist jedoch ihre Erfahrung mit spezifischen Objekten. Mangels anderer Erklärungen neigen sie also dazu, menschliche Schemata auf diese Objekte anzuwenden. Für Eltern ergibt sich hieraus eine besondere Verantwortung: Kinder sind naiver und können nur schwer nachvollziehen, dass im Hinblick auf digitale Mitbewohner auch eine gewisse Vorsicht angebracht sein sollte.

Was sind aber konkret die Gefahren, die der Einzug vernetzter Assistenten in unseren Alltag mit sich bringt? Die unscheinbaren, kleinen Lautsprecher werden oft kaum noch bewusst wahrgenommen. Sie verschmelzen mit ihrer Umgebung, werden sanft und allmählich Teil des Automatismus unserer täglichen Routine. Recht bald verschwindet das Bewusstsein darüber, dass dieser Assistent kein abgeschlossenes System ist. Die gigantische Rechenleistung und die wachsende Datenmenge über jeden, dessen Stimme zufällig von Alexa aufgeschnappt wurde, bleiben verborgen.

Manchmal schalten sie sich ungebeten ein

Sprachassistenten sind so konzipiert, dass sie standardmäßig eingeschaltet sind und auf die Nennung des Signalwortes warten. Äußerlich sichtbar ist dieser eingeschaltete Zustand aber nicht. Dies ist im Umgang mit technischen Geräten eher ungewohnt, und so fällt uns die Wachsamkeit des Assistenten weniger auf.

Ist das ein Problem? Immerhin aktiviert sich der Sprachassistent ja offiziell nur, wenn das Signalwort genannt wird. Jeder Besitzer eines solchen Gerätes wird allerdings schon erlebt haben, dass Alexa oder Google Home aktiv werden, ohne dass ihr Name genannt wurde. Diese Missverständnisse sind nicht so selten, wie man annehmen sollte. Forscher verzeichneten binnen drei Wochen 33 zufällige Aufnahmen in einem Haushalt in dem das Signalwort zu keinem Zeitpunkt genannt wurde. Ausgelöst wurden sie durch den Fernseher oder unscheinbare Gespräche in der Familie. Auf ein Jahr hochgerechnet kann ein normaler Benutzer eines Sprachassistenten also mit rund 600 Aufnahmen rechnen, die ungefragt und oft unbemerkt in eine gewaltige Datenmaschinerie mit einfließen, in der sie ausgewertet und angereichert werden.

Was sind die Geschäftsmodelle der Anbieter?

Darüber, wie diese Daten genau weiterverarbeitet werden, ist nicht viel bekannt. Der offizielle Verwendungszweck, dem jeder Nutzer mit Akzeptieren der Datenschutzerklärung zustimmt, ist das „Verbessern der Services“. Spracherkennung und Sprachverstehen sind die elementaren Bestandteile der künstlichen Intelligenz, auf der Sprachassistenten aufbauen. Um diese Komponenten zu verbessern, muss die KI trainiert werden, indem Menschen die Auswertung stichprobenweise überprüfen. Aufgabe der Trainer ist, zu entscheiden ob die KI richtig erkannt hat, was der Nutzer gesagt und gemeint hat.

Bei aller Legitimität dieses Anliegens dürfen aber zwei Dinge nicht außer Acht gelassen werden: die Geschäftsmodelle der Anbieter und die Reichhaltigkeit von Sprachdaten.

Gerade die zwei größten Marktteilnehmer Amazon und Google haben ein massives Interesse daran, ihre Kunden besser kennenzulernen. Die personalisierte Anzeige relevanter Werbung und Produkte ist der Grundstein ihres Erfolges. Weil sich damit das Verhalten ihrer Nutzer wirksam beeinflussen lässt. Die gezielte Produkt- und Werbeplatzierung ist nur deshalb ein Milliardengeschäft, weil sie Personen erfolgreich manipuliert und dazu verleitet, ein gewünschtes Verhalten an den Tag zu legen. Je mehr man dabei über einen Nutzer weiß, je besser man ihn kennt, desto subtiler und differenzierter kann man ihn steuern.

Wie die Stimme klingt, lässt Rückschlüsse zu

Gerade die menschliche Sprache lässt erstaunliche Rückschlüsse auf einen Menschen zu. Die ganz individuelle Anatomie des Mundraums in Kombination mit der persönlichen Art zu sprechen macht die Stimme so individuell wie ein Fingerabdruck. Name oder Kundennummer sind vernachlässigbar, allein auf Basis unserer Sprache sind wir eindeutig identifizierbar.

Was darüber hinaus aus den Aufzeichnungen „herausgehört“ werden kann, gilt als Geschäftsgeheimnis. Unter Juristen und Datenschützern ist noch umstritten, ob ein Kunde nicht auch erfahren dürfen sollte, welche Schlüsse die Konzerne aus seinen Daten ziehen. Dies wurde bislang in der Auslegung der aktuellen Datenschutzgrundverordnung noch nicht abschließend festgestellt.

Einen flüchtigen Blick hinter die Kulissen der Datenmaschinerie geben uns Patentanmeldungen. So hat Amazon beispielsweise einen Algorithmus patentiert, der werberelevante Stichworte in der Sprache erkennen soll. Dazu gehören etwa Marken, Produkte, Aktivitäten und positive oder negative Indikatoren („lieben“, „hassen“, „gekauft“, „zurückgeschickt“). Auch wird versucht, zu erkennen, ob es der Benutzer selbst ist, der ein Hotel buchen will, oder womöglich eine andere identifizierbare Person. Diese unbändige Neugier lässt nichts Gutes vermuten.

Emotionen in Echtzeit auswerten – und ausnutzen

Noch weiter geht eine patentierte Technologie, die in Echtzeit Aussagen über die emotionale und gesundheitliche Verfassung des Nutzers treffen kann und Hintergrundgeräusche identifiziert. Sie erfasst zum Beispiel Schilddrüsenprobleme oder Erkältungssymptome und kann ein großes Spektrum an Emotionen in der Stimme wahrnehmen – von Zufriedenheit über Kummer und Stress bis hin zu Langeweile und Müdigkeit. Der kommerzielle Einsatz dieser Erkenntnisse wird im Patent ausführlich dargestellt: Drittunternehmen sollen ihre Zielgruppe anhand der verfügbaren Merkmale definieren können und in Echtzeit auf einen „Werbeslot“ bieten. Dieser könnte dann beispielsweise eine erkältete und müde junge Frau sein, die eine Vorliebe für Schokolade hat und deren Kind gerade im Hintergrund weint. Der gesunde Menschenverstand sagt uns, dass diese Frau gerade besonders schutzbedürftig ist. Amazon aber versteht, dass gerade sie, gerade jetzt, besonders einfach zu manipulieren ist und lässt Alexa fragen, ob sie vielleicht Schokolade bestellen soll.

Nicht alles was patentiert ist, wird umgesetzt. Noch spielt Alexa keine Werbung ab, und wir wissen nicht, ob tatsächlich schon flächendeckend Emotionen in Echtzeit ausgewertet werden. Allerdings gibt es Hinweise darauf, dass die in den Patenten erwähnten Daten zumindest teilweise schon erhoben werden. Einige der Whistleblower, die in jüngster Zeit an die Öffentlichkeit traten und erklärten, dass sie Sprachaufnahmen mithörten, gaben auch an, dass sie kontrollierten, ob der Algorithmus Hintergrundgeräusche und relevante Stichworte richtig erkannt hat.

Alexa ist keine Freundin

Die Daten, die unsere digital vernetzten Geräte über uns sammeln, verraten so viel über uns, dass KI herleiten kann, wer wir sind, was wir fühlen und was uns wichtig ist. Dieses Wissen wird bewusst und gezielt eingesetzt, um Nutzer zu manipulieren. Als Gesellschaft sollten wir ein Interesse daran haben, zu wissen, wer versucht unser Verhalten zu steuern und wie er dies anstellt. Wir haben außerdem eine Verantwortung für diejenigen, die besonders schutzbedürftig sind: Kinder, Menschen, die einsam sind, die Technologie nicht verstehen oder sich in einer Situation befinden, in der sie verletzbar sind. Wir sollten nicht zulassen, dass gerade sie zur Zielscheibe subtiler Manipulation und Verhaltenssteuerung werden.

In unserem menschlichen Bedürfnis nach Nähe machen wir selbst Objekte zu unseren Freunden. Im Falle von Alexa und Co. ist dies allerdings ein Freund, der uns unbemerkt genauestens beobachtet und sich dabei jedes Detail einprägt. Mit dem Ziel, uns irgendwann – in einem ganz anderen Kontext – dazu zu bringen, ihm Geld zu geben.

Esther Görnemann ist Wissenschaftlerin am Institut für Wirtschaftsinformatik und Gesellschaft der WU Wien. Im Rahmen des EU- Projekts Privacy & Us erforscht sie die Interaktion mit Technologie mit Fokus auf Sprachassistenten, Datenschutz und ethische Herausforderungen.

Dieser Beitrag wurde am 25.8.2019 in der Zeitung Tagesspiegel veröffentlicht.

Sarah Spiekermann on netzpolitik.org: Can Ethics be standardized?

January 15, 2019 in Uncategorized
Sarah Spiekermann

Prof. Dr. Sarah Spiekermann, chair of the Institute for Information Systems and Society at WU Vienna, gave an interview for the podcast netzpolitik.org on the question: “Can Ethics be standardized?” She was talking about the work on her new book Digitale Ethik, which aims to provide process standards for ethical design.

A major focus of the conversation was ethical responsibility of algorithms, whereas she suggests that it is not possible to build ethical algorithms, as humans do a much better job at determining what the best thing to do is. Algorithms can only decide according to simplistic utilitarian considerations. The reality of things is so much more complex than any digital application can grasp. Machines are biased because of the data they have and software always contains some mistakes. This is why specific applications of algorithms are a fundamentally bad idea, as for example predictive policing.

Commercial enterprises use the internet to reduce the freedom of people. Meanwhile, the ethical discussion often revolves around Red Herrings, such as the question whether autonomous cars should bump into old ladies or a group of youngsters.  Such discussions divert from the real problems. It is important to ask the right questions when talking about digital ethics. Not only consumers, but everybody involved in the development and production of technology has a responsibility to think about where we want to go and what kind of society we want to create and live in. 

For the entire interview click here: https://netzpolitik.org/2018/netzpolitik-podcast-folge-161-kann-man-ethik-standardisieren/

On April 1st 2019 her book “Digitale Ethik – A Value System for the 21st Century” (available on: https://www.amazon.de/Digitale-Ethik-Ein-Wertesystem-Jahrhundert/dp/3426277360) will come to the German book market.

… enjoy!