Künstliche Intelligenz und deren Möglichkeiten

meinter eher das gesamtpaket roboter. Also auch die KI die dort interagiert.

Also nach ein wenig Recherche glaub ich nicht, dass das Video von casio 100% autonom ist. Schaut man sich mal das 4 Wochen alte Video vom Hersteller ans

Die Sprachsynthese ist deutlich schlechter und mehr roboterartig wie auf einem Tonband. Sowas fixt du nicht mal eben in paar Wochen. Ich vermute eher, dass irgendwer für Ameca spricht und das dann durch paar Filter noch manipuliert wird.

kA wie seriös man hier dieses Thema behandeln will, aber dann ist sowas wie Knossi vielleicht einfach nicht die beste Quelle.

Die Führungskräfte der amerikanischen Non-Profit-Organisation National Eating Disorders Association (NEDA) haben beschlossen, vier Tage nachdem die Mitarbeiter eine Gewerkschaft gegründet hatten, die Hotline-Mitarbeiter einfach durch einen Chatbot namens Tessa zu ersetzen - und er ist nicht einmal gut.

NEDA, die größte gemeinnützige Organisation für Essstörungen, betrieb seit zwanzig Jahren eine Helpline, die über Chat, Telefon und Text Hunderttausenden von Menschen Unterstützung bot. Laut dem Unternehmen wurde der Chatbot eingeführt, um Menschen mit Essstörungen noch besser zu helfen. Laut Noch-Helpline-Mitarbeiterin Abbie Harper dient der Bot lediglich zur Zerschlagung der Gewerkschaft.

Harper zufolge besteht die Helpline aus sechs bezahlten Mitarbeitern, einigen Vorgesetzten und bis zu 200 Freiwilligen zu jeder Zeit. Eine Gruppe von vier Vollzeitkräften bei NEDA, einschließlich Harper, beschloss, sich zu organisieren, weil sie sich überlastet und unterbesetzt fühlten. Sie forderten von der NEDA mehr Schulungen sowie Aufstiegsmöglichkeiten. Es wurden nicht einmal Gehaltserhöhungen verlangt.

Das Unternehmen lehnte es ab, die Gewerkschaft anzuerkennen, weshalb die Mitarbeiter eine Wahl beim National Labor Relations Board beantragt und gewonnen haben. Nur vier Tage nachdem die Wahlergebnisse bestätigt wurden, wurde allen Mitarbeitern mitgeteilt, dass sie entlassen und durch einen Chatbot ersetzt werden. Die freiwilligen Mitarbeiter sollen die Einzelbetreuung einstellen und als Tester für den Bot fungieren.

Der Chatbot in Frage heißt Tessa und wurde von einem Team der medizinischen Fakultät unter Leitung von Dr. Ellen Fitzsimmons-Craft entwickelt. Er wurde trainiert, um spezifisch auf Körperbild-Probleme einzugehen und therapeutische Methoden anzuwenden.

Die Antworten, die Tessa geben kann, sind allerdings begrenzt, da der Bot nicht auf GPT basiert, sondern lediglich eine regelbasierte und geleitete Unterhaltung verwendet. Dr. Fitzsimmons-Craft deutet selbst darauf hin, dass dieser kein Ersatz für eine reale Person sein kann.

Die amerikanischen Kollegen von Motherboard Vice haben Tessa getestet. Gleich zu Beginn der Konversation wird einem mitgeteilt, dass es sich um einen Chatbot handelt. In dem Test reagierte der Bot nicht auf Texte wie »Ich fühle mich niedergeschlagen« oder »Ich hasse meinen Körper«.

Die entlassenen Mitarbeiter werden bis zum 01. Juni tätig sein. Ab diesem Datum wird die NEDA-Hotline nur noch von Tessa »betreut«.

und dann nutzen sie nicht mal eine „richtige“ KI. lel

Kontroverse Entscheidung: Hilfe-Hotline für Essstörungen entlässt alle Mitarbeiter - für einen Chatbot (gamestar.de)

gibt ein neues, sehr kurzes statement u.a. durch die entwickler von KI modellen.:

Mitigating the risk of extinction from AI should be a global priority alongside other societal-scale risks such as pandemics and nuclear war.

Zu den Unterzeichnern zählen Sam Altman, CEO von OpenAI, Demis Hassabis, Chef von Google DeepMind, sowie die mit dem Turing Award ausgezeichneten KI-Forscher Geoffrey Hinton und Yoshua Bengio. Auch Taiwans Digitalministerin Audrey Tang, Microsofts Technikchef Kevin Scott, die Musikerin Grimes sowie zahlreiche KI-Fachleute aus der Forschung und der Wirtschaft stehen auf der Liste.

Veröffentlicht wurde die Botschaft vom Center for AI Safety, Zentrum für KI-Sicherheit, aus San Francisco. Die »New York Times« hatte als Erstes darüber berichtet . Der Zeitung zufolge ist das Statement absichtlich so knapp gehalten, um Fachleute vereinen zu können, die ansonsten verschiedene Ansichten über die konkrete Gefahr durch KI oder geeignete Abwehrmaßnahmen hätten.

damit wollen sie vor den risiken warnen und für mehr regularien werben.

Sam Altman etwa hatte vergangene Woche im Interview mit dem SPIEGEL gesagt, er sei »sehr besorgt, dass mithilfe von KI-Systemen biologische Kampfstoffe entwickelt werden könnten«. Doch rote Linien in der Entwicklung will er nicht allein ziehen: »Es ist entscheidend, dass wir in einem demokratischen Prozess die Grenzen für diese Technologie bestimmen und als Menschen die Kontrolle behalten. Im Übrigen brauchen wir auch als Unternehmen Klarheit und sollten deshalb reguliert werden.«

1 Like

Mir fehlt die Phantasie, um mir vorzustellen dass mit irgendwelchen Regularien man jemanden daran hindern kann etwas wirklich gefährliches zu entwickeln (sobald sich die Möglichkeiten dafür ergeben) :/

Jürgen Schmidhuber widerspricht in der F.A.Z.

Besitze keinen Account @FAZ, bei der Einleitung ergibt sich jedoch folgende Frage:
Wird im Artikel/Interview näher darauf eingegangen, dass es irgendwann die Entscheidung einer KI sein könnte, vorhandene Wasserstoffbomben-Reserven (wie auch immer) gegen die Menschheit einzusetzen?

Simulation hat ja schonmal gut geklappt.

schon krasse beispiele dabei.

prompt: GoT ab Season 5 so wie Season 1-4.

3 Like

Musk, Altman und Brockman gründeten Open AI 2015 als gemeinnützige Organisation. Sie wollten die KI-Technologie in den Dienst der Menschheit stellen. Dazu gehörte vor allem, die Menschen vor einer sogenannten allgemeinen künstlichen Intelligenz (AGI) zu schützen, die ihr gefährlich werden könnte. Als AGI gelten hoch entwickelte Systeme, die praktisch jede Aufgabe so gut erledigen können wie ein Mensch. Das wurde in einer Gründungserklärung festgeschrieben. Als Zeichen seines unkommerziellen Anspruchs sagte Open AI auch zu, seine Technologie quelloffen zur Verfügung zu stellen, damit sie Fachleute überall auf der Welt prüfen und nutzen konnten.

Nun sieht Musk dieses Prinzip verraten, nicht nur, weil die Forschung von Open AI mittlerweile größtenteils im Geheimen stattfindet. Open AI ist in Teilen zu einem kommerziellen Unternehmen geworden. Die Firma hat sich auch eng an den Tech-Konzern Microsoft gebunden. Der unterstützt Open AI mit viel Geld und Rechnerkapazitäten, die entscheidend für Entwicklung und Betrieb mächtiger KIs sind.

In der Klage steht, Open AI entwickle nicht nur eine AGI, sondern „verfeinere sie auch, um die Profite von Microsoft zu vergrößern statt das Wohl der Menschheit“.

Hat auf jeden Fall nicht Unrecht. Diese Grundsätze sind halt eine Farce. Wird doch mittlerweile auch militärisch genutzt, etc…

Haben ja deshalb auch mal eben heimlich die Richtlinien geändert.

Heute eine spannende Doku von Arte gesehen, sehr empfehlenswert auch wenn es natürlich viel Werbung für die europäische Lösung ist:

Inwieweit habt ihr denn auf eurer Arbeit aktuell schon Berührungspunkte zu GenAI?
Sind ja doch recht viele hier in der IT unterwegs.

Bei mir in der Firma (IT Unternehmensberatung) wird das von Monat zu Monat intensiver. Z. B. ein eigenentwickeltes Produkt/LLM um Programmiercode von einer Programmiersprache in eine andere umzuwandeln, eigene Console usw.

1 Like

bei mir (datenschutz consulting / IT dienstleister) gibt es seit geraumer zeit fast kein anderes thema mehr. bei sämtlichen meetings, konferenzen, kundenterminen oder tagungen sind mind. 80% irgendwelche KI-themen.

man kommt nicht (mehr) dran vorbei. beruflich gesehen könnte es für mich durch meinen background kaum etwas besseres geben. ist quasi das perfekte feld für mich, gerade weil noch so viel unklar ist.

ich beschäftige mich auch aktuell intensiv mit dem EU AI Act.

Also ich hab selbst schon öfter mal OpenAI bezüglich Programmierung getestet. Natürlich keine „Hallo Welt“ Anfrage, sondern wirklich Sachen, die komplizierter sind (und wo es 0 Beispiele im Internet gibt). Zu 50% kam Müll raus, der nicht funktionierte. Zu 30% kam Quatsch raus, der vielleicht funktionierte, aber dumm programmiert war und zu 20% vielleicht das richtige.

Daher die Frage: Funktioniert so ein Tool wirklich? Ich kann es mir nicht vorstellen … jede Programmiersprache hat seine Eigenheiten, seine Vorteile, seine Nachteile. Wenn du ein Programm 1:1 übersetzt, macht das in den wenigen Fällen wirklich so Sinn.

Oder sprechen wir da einfach nur von Scripten, die von VBS nach Powershell übertragen werden? Wie will man, als Beispiel, ein C# Programm in eine andere Sprache übersetzen? Das arbeitet womöglich mit MVVM, mit weiteren NuGet-Erweiterungen, mit WPF, etc?

nicht ganze programme aber code snippets.

ansonsten müsstest du halt der KI diese kontextinformationen auch mitgeben. du kannst ja eh nicht 100k Zeilen code reindumpen. und es gibt ja für viele Programmiersprachen libraries für verschiedenste APIs und ähnliches.

1 Like

Ah, okay. Das macht mehr Sinn. Also praktisch so Aufgaben:

if (3 > 1)
{
  Debug.WriteLine("3 ist größer als 1"); 
}

If (3 > 1) Then
  Debug.Print("3 ist größer als 1")
End If
print("Ja.")
2 Like

Bei uns hat AI noch nicht viel Anklang gefunden.
Ganz im Gegenteil. Wir wurden angewiesen den AI Assistant unserer stamm ide (intelliJ) aus Sicherheitsbedenken zu deaktivieren. Zu den alltäglich typischen Fragestellungen hilft mir persönlich google 100mal schneller als wenn ich das ganze ausformuliere und chatgpt übergebe. Meistens ist man doch eh auf der Suche nach Dokumentation, Minimalbeispielen, Tutorials und landet am Ende eh bei den gleichen Seiten wo man sich auskennt.

bei mir ist es eine Mischform, wenn ich schnell iwie nen snippet brauch oder konzeptionell nen groben überblick benutz ich schon chatgpt. Manchmal passen beispiele aus StackOverflow halt nicht ganz oder sind auch sehr alt.

Finde es zum Schreiben von Tests einfach sehr gut.

Zu testende Klasse reinwerfen und sagen, in welchem Framework ich gerne die Tests hätte.

Spart einfach viel Tipperei.

‚Write me a mock for the following class‘
‚Now write Tests using the mock and using test framework xyz‘.

1 Like