Qualität und KI: Ein ungleiches Paar?
+++++++ Links +++++++
👉 Gordon Moore ist tot (2023)
Gordon Moore ist gestorben. Er gründete unter anderem Intel. Weltberühmt ist "Moore's Law" über die Weiterentwicklung von Computerprozessoren.
https://www.heise.de/news/Gordon-Moore-ist-tot-8024317.html
👉 Scientists You Must Know: Gordon Moore (2015)
https://youtu.be/hrtyUnad7Jo
👉 Amazon-Gesichtserkennung - Test produziert hohe Fehlerquote, Hersteller zweifelt Aussagekraft an (2018)
Verbraucherschützer haben Amazons Gesichtserkennungssoftware getestet und dabei eine hohe Fehlerquote festgestellt. Amazon selbst bezweifelt allerdings die Aussagekraft des Tests.
https://www.gamestar.de/artikel/amazon-gesichtserkennung-test-produziert-hohe-fehlerquote-hersteller-zweifelt-aussagekraft-an,3332819.html
👉 Zwölf absurde Zusammenhänge, die euch an bloßem Zufall zweifeln lassen (2018)
Es gibt Zufälle, die gibt es gar nicht. Oder eben doch, und dann setzt sich auch noch einer ran, und sammelt sie auf seiner Website. Dieser eine ist Tyler Vigen. Der zahlenvernarrte Amerikaner hat die absurdesten Korrelationen, die die (US-amerikanische) Welt der Daten hergibt, auf seiner Website gesammelt. Und aus dem Projekt, dass eigentlich nur als Gag für Freund:innen gedacht war, ist mittlerweile eine riesige Sammlung geworden.
https://www.business-punk.com/2018/07/korrelation-bizarr/
👉 Timnit Gebru and The Problem with Large Language Models (2021)
n December of 2020, Google fired Timnit Gebru, a co-leader of their Ethical Artificial Intelligence team (Google continues to maintain Gebru resigned, though even Google’s version of events leaves open the question of constructive discharge). In 2021, Google further indicated its stance regarding research in the ethical field by firing Margaret Mitchell, a researcher studying the possibility of unbiased internet intelligence. These departures sparked a large backlash in the company and at least two engineers quit their jobs in protest.
https://multilingual.com/timnit-gebru-and-the-problem-with-large-language-models/
👉 We read the paper that forced Timnit Gebru out of Google. Here’s what it says. (2020)
The company's star ethics researcher highlighted the risks of large language models, which are key to Google's business.
https://www.technologyreview.com/2020/12/04/1013294/google-ai-ethics-research-paper-forced-out-timnit-gebru/
👉 Standing with Dr. Timnit Gebru — #ISupportTimnit #BelieveBlackWomen (2020)
We, the undersigned, stand in solidarity with Dr. Timnit Gebru, who was terminated from her position as Staff Research Scientist and Co-Lead of Ethical Artificial Intelligence (AI) team at Google, following unprecedented research censorship. We call on Google Research to strengthen its commitment to research integrity and to unequivocally commit to supporting research that honors the commitments made in Google’s AI Principles.
https://googlewalkout.medium.com/standing-with-dr-timnit-gebru-isupporttimnit-believeblackwomen-6dadc300d382
👉 So trainiert Google künstliche Intelligenz (2017)
Alle großen Tech-Firmen setzen auf maschinelles Lernen und künstliche Intelligenz. Nur wenige können mit Google mithalten.
https://www.sueddeutsche.de/digital/algorithmen-so-trainiert-google-kuenstliche-intelligenz-1.3759233
👉 IBM Watson Reportedly Recommended Cancer Treatments That Were 'Unsafe and Incorrect' (2018)
Internal company documents from IBM show that medical experts working with the company’s Watson supercomputer found “multiple examples of unsafe and incorrect treatment recommendations” when using the software, according to a report from Stat News.
https://gizmodo.com/ibm-watson-reportedly-recommended-cancer-treatments-tha-1827868882
👉 E-Health: IBM verkauft Teile der krankenden Watson Health-Sparte (2022)
IBM hat angekündigt, dass sie Teile ihrer Watson Health an die Private-Equity-Gesellschaft Francisco Partners verkaufen wird. Betroffen sind eine Reihe von Datenanalyse-Abteilungen der E-Health-Subsparte von Watson, darunter die Produkte Health Insights, MarketScan, Clinical Development, Social Program Management, Micromedex und bildgebende Softwareangebote.
https://www.heise.de/news/E-Health-IBM-verkauft-Teile-der-krankenden-Watson-Health-Sparte-6341725.html
👉 Amazon: KI zur Bewerbungsprüfung benachteiligte Frauen (2018)
Eigentlich wollte Amazon eine Software entwickeln, die unter Bewerbern automatisch die besten findet. Der Algorithmus hatte aber unerwünschte Nebenwirkungen.
https://www.heise.de/newsticker/meldung/Amazon-KI-zur-Bewerbungspruefung-benachteiligte-Frauen-4189356.html
👉 Tesla-Fahrer bei Unfall gestorben (2021)
Der Fahrer eines Tesla Model 3 ist in einen Lkw-Unfall gerast. Ob der Autopilot an war, ist noch unklar.
https://www.golem.de/news/autopilot-tesla-fahrer-stirbt-bei-unfall-2105-156594.html
👉 Big Data
Big Data is happening now. Learn about the tips and technology you need to store, analyze, and apply the growing amount of your company’s data.
https://www.techrepublic.com/topic/big-data/
👉 Was ist Datenbereinigung? (2019)
Die Datenbereinigung findet fehlerhafte, doppelte, inkonsistente, ungenaue, falsch formatierte oder irrelevante Daten in einer Datenbank und korrigiert sie. Der Prozess der Datenbereinigung besteht aus mehreren aufeinander folgenden Einzelschritten, die teilweise immer wieder zu durchlaufen sind.
https://www.bigdata-insider.de/was-ist-datenbereinigung-a-843546/
👉 5 Characteristics of Data Quality (2022)
Data quality is crucial – it assesses whether information can serve its purpose in a particular context (such as data analysis, for example). So, how do you determine the quality of a given set of information? There are data quality characteristics of which you should be aware.
https://www.precisely.com/blog/data-quality/5-characteristics-of-data-quality
👉 Positionspapier des KI Bundesverband e.V. zur EURegulierung von Künstlicher Intelligenz (2021)
Neun-Punkte-Plan zur Regulierung von KI in der EU
chrome-extension://efaidnbmnnnibpcajpcglclefindmkaj/https://ki-verband.de/wp-content/uploads/2022/02/KI_Regulierung_DE-komprimiert.pdf
👉 Ausgebeutet, um die KI zu zähmen (2023)
Kenianische Arbeiter mussten sich Gewalt und Rassismus ansehen, damit ChatGPT lernt. Das zeigt: KI wird auch in Zukunft eine Technologie der Mächtigen bleiben.
https://www.zeit.de/digital/2023-01/chatgpt-ki-training-arbeitsbedingungen-kenia
👉 Geschichten von morgen (2023)
Auch wenn sie tolle Texte schreiben, KIs haben ein Problem: Sie werden vorwiegend mit westlichen Quellen trainiert. Mehr Diversität ist nötig.
https://taz.de/Ideologie-und-kuenstliche-Intelligenz/!5907912/
👉 Prekäre Klickarbeit hinter den Kulissen von ChatGPT (2023)
Arbeiter:innen in Kenia sollten teils traumatisierende Texte lesen, um ChatGPT zu optimieren. Ihr Stundenlohn: bis zu zwei US-Dollar. Eine Recherche des Time Magazines zeigt: Hinter dem Hype um die Künstliche Intelligenz steckt auch eine Geschichte von Ausbeutung im globalen Süden.
https://netzpolitik.org/2023/globaler-sueden-prekaere-klickarbeit-hinter-den-kulissen-von-chatgpt/
+++++++ Mind The Tech im Netz +++++++
Instagram: @mindthetech.podcast
Twitter: @mindthetech
Mastodon: https://mastodontech.de/@mindthetech
Web: www.mindthetech.de
LinkedIn: https://www.linkedin.com/company/mind-the-tech/
Kommentare
Neuer Kommentar