Die israelische Armee soll ein KI-gestütztes System eingesetzt haben, um Ziele in Gaza zu markieren. Die Fehlerraten solcher Technologien seien groß, warnt der Verein
Interview mit Rainer Rehak: „Die Nutzung solcher KI-Systeme muss als Kriegsverbrechen eingestuft werden“
Holy shit, ich mache manchmal Klassifikationsmodelle und es wäre mir im Traum nicht als möglich erschienen dass hier „Kollegen“ den Precision-Recall trade off in Menschenleben quantifizieren. Es sollte nicht nur als Kriegsverbrechen eingestuft werden, sondern sklearn, tensorflow, Python foundation, etc. und alle Cloud-Provider sollten militärische Nutzung von ihren ML-Architekturen untersagen.
Es kann doch nicht sein dass da ein paar Leute sitzen und sagen hmm, also wenn wir die probability threshold jetzt von 0.5 auf 0.4 runtersetzen dann sinkt zwar unsere Precision um 10%, dafür können wir aber den Recall auf 65% erhöhen. Wobei wir hier nicht von fälschlicherweise als Spam klassifizierten Mails sprechen, sondern von Menschenleben. Jeder Prozentpunkt tötet fucking echte Menschen.
Holy shit, ich mache manchmal Klassifikationsmodelle und es wäre mir im Traum nicht als möglich erschienen dass hier „Kollegen“ den Precision-Recall trade off in Menschenleben quantifizieren. Es sollte nicht nur als Kriegsverbrechen eingestuft werden, sondern sklearn, tensorflow, Python foundation, etc. und alle Cloud-Provider sollten militärische Nutzung von ihren ML-Architekturen untersagen.
Es kann doch nicht sein dass da ein paar Leute sitzen und sagen hmm, also wenn wir die probability threshold jetzt von 0.5 auf 0.4 runtersetzen dann sinkt zwar unsere Precision um 10%, dafür können wir aber den Recall auf 65% erhöhen. Wobei wir hier nicht von fälschlicherweise als Spam klassifizierten Mails sprechen, sondern von Menschenleben. Jeder Prozentpunkt tötet fucking echte Menschen.