Aktuell bin ich auf "Perplexity"
-> https://www.perplexity.ai
Passend dazu aktuelle Agenturmeldung, hier über Spiegel: Mobile World Congress: Telekom will Handy-Startbildschirm durch KI revolutionieren - DER SPIEGEL
"[...]Auf dem Mobile World Congress (MWC) präsentiert der Telekommunikationskonzern die nächste Generation des sogenannten T-Phones, das als »KI-Phone« inszeniert wird.[...] Hinter dem neuen Assistenten steckt die Technik des US-Anbieters Perplexity AI."
Kann mir allerdings nicht vorstellen, dass das "T-Phone" wirklich breit gut ankommt, international schon gar nicht.
Persönlich, trotz großem Interesses an dem Thema, finde ich die ganzen KI-Features der neuen Smartphones für mich (noch) nicht besonders attraktiv und mutmaßlich nicht so nützlich. Abgesehen davon, dass jetzt halt alles KI genannt wird, was man früher vielleicht Algorithmus mit Pattern-Matching oder auch Kontext-Info nannte. Ein Restaurant zu suchen in der Nähe, kommt mir nicht besonders KI vor, wenn man halt mit dem aktuellen Standort eine Datenbank durchsucht - ob man da jetzt nach japanisch filtert oder nicht. Heutzutage wird mit dem Buzz-Word KI auch bezeichnet, was man früher einen PID-Regelalgorithmus nannte, eine Brute-Force-Suche für Schach oder halt eine hübsch verpackte Datenbankabfrage. (Beispiele hier im Thread sind durchaus anspruchsvoller).
Vielleicht sorgen die derzeitigen politischen Umbrüche ja dafür das in Zukunft mehr in AI Made in EU investiert wird und das die Modelle dann besser werden.
Ja, das hoffe ich auch. Noch ein Bereich, in dem Mistral am besten abgeschnitten hat. Problem das ich kürzlich (mal wieder) algorithmisch hatte. Wie kann man von einem Stream von Datenpunkten Varianz und oder Standardabweichung (gelegentlich) effizient aktualisieren, ohne die bekannten Formeln mit Kern "Bilde Summe aus (Differenz der einzelnen Datenpunkte minus Mittelwert) zum Quadrat" neu zu berechnen. Da hat Mistral die nach meiner Einschätzung numerisch effizienteste Lösung geliefert. Allerdings lieferten alle AIs eine gute Lösung - ohne Herleitung der Formeln. Lässt bisschen vermuten, dass hier die Lösung durch Suche, nicht durch KI gefunden wurde (Die KI vielleicht beim "Verstehen" der Frage und Übersetzen in gute Suchanfrage). Alle boten mir auch Quelltext an. In zwei Fällen getestet und für korrekt befunden. Dabei bat ich um Quelltext in C oder C++ - ohne zu fragen wurde Python angeboten.
Am Rande, meine Herleitung, die ich noch auf dem Schreibtisch liegen hatte (und die mich zu der Idee brachte, das den AIs als Aufgabe zu geben):
Exakt so hat es dann auch Mistral gemacht, und im Algorithmus pro Datenpunkt Summe der Datenpunkte und Summe der Datenpunkte zum Quadrat aktualisiert. Die anderen nutzten (mathematisch adäquate) Formeln, die pro Datenpunkt zusätzlich noch Divisionen benötigen. (Die Divisionen sind unvermeidlich, wenn man wirklich Standardabweichung, Varianz, Mittelwert berechnet).
(Das Problem ist für Nicht-Programmierer möglicherweise nicht einfach zu verstehen. Der naheliegende Ansatz, den Mittelwert aller Datenpunkte zu berechnen, und dann in einer Schleife durch alle Datenpunkte die Differenz zum Mittelwert zu aktualisieren benötigt für jeden neuen Datenpunkt die gesamte Schleife durchzugehen. Die bessere Lösung ist viel effizienter. Außerdem muss sich der naive Algorithmus alle Datenpunkte zwischenspeichern. Der bessere Algorithmus kann die Datenpunkte nach und nach verarbeiten und dann verwerfen. Nur die Summen und die Summen der Quadrate müssen zwischengespeichert werden.)