Deutsche beschäftigen sich nur oberflächlich und undifferenziert mit Künstlicher Intelligenz, hat eine aktuelle Studie von Jan Schoenmakers Datenanalysefirma Hase & Igel ergeben. Gleichzeitig macht die Wirtschaft sich hierzulande immer abhängiger von Technologien aus dem Ausland, die es weder beherrscht noch versteht. Fatal, findet Schoenmakers.
Wunder der Technik: Die neuste Version des Diensts Chat GPT liefert noch beeindruckendere Resultate als ihre Vorgänger. Wie lange noch, bis uns die Maschine erst die Arbeitsplätze und dann die Würde nimmt?
Tl;dr: The harms from so-called AI are real and present and follow from the acts of people and corporations deploying automated systems. Regulatory efforts should focus on transparency, accountability and preventing exploitative labor practices.
Three weeks ago, I wrote a blogpost about how ChatGPT is a "stochastic parrot" (a term coined by Bender, Gebru, McMillan-Major, & Shmitchell, 2021; see also this video for an explanation) and when used for academic (and other) writing constitutes automated plagiarism. My aim was to bring the discussion down to earth and prevent that…
The European Commission has moved to "compel" Microsoft to provide information about generative artificial intelligence (AI) risks on its Bing search engine, threatening it with a fine, according to a statement on Friday (17 May).
Firmen wie Open AI folgten einem radikal libertären Denken, das sämtliche politischen und sozialen Fragen ignoriere, sagt der Philosoph und Sprachforscher Hannes Bajohr. Die Diskussion darüber, welchen gesellschaftlichen Visionen KI-Modelle folgen, dürften wir ihnen auf keinen Fall überlassen.
Beim Umgang mit KI geht es nicht nur um technisches Verständnis, sondern vor allem um den Einfluss der Technologie auf unser Zusammenleben. Ein Gespräch über Ansätze in der außerschulischen Bildung.
I've been asked, in various roles1, to give my opinion on the challenges posed by Large Language Models (LLMs)2, also known as "stochastic parrots" (Bender, Gebru, McMillan-Major, & Shmitchell, 2021), for assessing academic writing assignments. A concern seems to be that students legitimately can use these systems and that then we would be unable to…
GPT-4 ist da und steckt seit letzter Woche auch in ChatGPT. Ein Test einer US-Organisation zeigt, dass die KI im Vergleich zum Vorgänger offenbar anfälliger für Falschinformationen ist.
Die Debatte um Künstliche Intelligenz und ChatGPT führt dramatisch in die Irre. In seiner Ringvorlesung für die Universität Erfurt fächert der Autor zehn Gefahren aktuell gehypter KI-Systeme auf und argumentiert: Nicht etwa intelligente Maschinen sind das Problem, sondern der menschliche Blick auf Technologie.
Sprachmodelle prägen künftig die öffentliche Debatte mit – und machen sich damit am zentralen Ort der Politik zu schaffen. Ihre Vorurteile und Schwächen könnten auf die Demokratie selbst durchschlagen.
This essay is based in part on presentations given in the Spring and Summer of 2018 at the Creative AI Meetup at the Photographer’s Gallery in London, the University of Chicago’s Franke Institute for the Humanities, the Aarhus Institute of Advanced Studies in Denmark, INRS in Quebec, and the University of Warwick Centre for Interdisciplinary Methodologies Research Forum. It is the second part of a longer discussion about deep learning, the first part of which is in the essay, “Deep Learning as an Epistemic Ensemble”.
William Eden forecasts an AI winter. He argues that AI systems (1) are too unreliable and too inscrutable, (2) won’t get that much better (mostly due to hardware limitations) and/or (3) won’t be that profitable.
Wie funktionieren Systeme wie ChatGPT? Sind sie wirklich „intelligent“? Was passiert, wenn sie großflächig zum Einsatz kommen? Was hätte das für Auswirkungen auf Bibliotheken?
E. Bender, T. Gebru, A. McMillan-Major, and S. Shmitchell. Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency, New York, Association for Computer Machinery – ACM, (March 2021)