<?xml version="1.0" encoding="UTF-8"?>
<rss version="2.0" 
     xmlns:content="http://purl.org/rss/1.0/modules/content/"
     xmlns:wfw="http://wellformedweb.org/CommentAPI/"
     xmlns:dc="http://purl.org/dc/elements/1.1/"
     xmlns:atom="http://www.w3.org/2005/Atom"
     xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
     xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
     xmlns:media="http://search.yahoo.com/mrss/">

<channel>
    <title>AI  - Wiribu | Tech Gaming News</title>
    <atom:link href="https://wiribu.de/feed/ai" rel="self" type="application/rss+xml" />
    <link>https://wiribu.de/kategorie/ai</link>
    <description>Die neuesten KI-News, Tools und Trends rund um künstliche Intelligenz. Wir berichten über ChatGPT, Automatisierung, Machine Learning und innovative AI-Technologien – verständlich, praxisnah und immer aktuell.</description>
    <lastBuildDate>Sun, 19 Apr 2026 14:40:12 +0300</lastBuildDate>
    <language>tr-TR</language>
    <sy:updatePeriod>hourly</sy:updatePeriod>
    <sy:updateFrequency>1</sy:updateFrequency>
    <generator>Custom PHP RSS Generator</generator>

    
            <item>
        <title>Gemini Notebooks kostenlos: Features, Limits &amp;amp; lohnt sich das?</title>
        <link>https://wiribu.de/gemini-notebooks-kostenlos-features-limits-lohnt-sich-das</link>
        <pubDate>Sat, 18 Apr 2026 20:12:32 +0300</pubDate>
        <dc:creator><![CDATA[Wiribu | Tech Gaming News]]></dc:creator>
        <guid isPermaLink="true">https://wiribu.de/gemini-notebooks-kostenlos-features-limits-lohnt-sich-das</guid>
        <description><![CDATA[
            <img src="https://www.wiribu.de/uploads/images/gemini-notebooks-kostenlos-features-limits-lohnt-sich-das.webp" alt="Gemini Notebooks kostenlos: Features, Limits &amp;amp; lohnt sich das?" style="width:100%; max-width:600px; margin-bottom:10px;" /><br/>Google stellt die Notebooks-Funktion in Gemini jetzt auch kostenlos bereit. Nutzer können damit Quellen, Chats und Dateien bündeln, Inhalte automatisch zusammenfassen und strukturieren. Ziel: eine persönliche KI-Wissensdatenbank. Limits: bis zu 50 Quellen in der Free-Version.        ]]></description>
        <content:encoded><![CDATA[
            <img src="https://www.wiribu.de/uploads/images/gemini-notebooks-kostenlos-features-limits-lohnt-sich-das.webp" alt="Gemini Notebooks kostenlos: Features, Limits &amp;amp; lohnt sich das?" /><br/><p><span style="color: rgb(0, 0, 0);">Google dreht auf. Was vorher nur zahlenden Nutzern vorbehalten war, wird jetzt kostenlos freigegeben – und das ist kein kleines Update. Mit den neuen Notebooks in Gemini greift Google direkt an, wo es weh tut: Produktivität, Wissen und Organisation. Das Ziel ist klar: Deine Gedanken sollen nicht mehr in </span><a href="https://www.wiribu.de/kategorie/apps" target="_blank" style="color: rgb(0, 0, 0);">Apps</a><span style="color: rgb(0, 0, 0);"> verteilt sein, sondern zentral in einer KI zusammenlaufen.</span></p><p><br></p><p><strong>QUICK FACTS</strong></p><p><br></p><ul><li><strong>Feature:</strong>&nbsp;Notebooks in Gemini</li><li><strong>Preis:</strong>&nbsp;Kostenlos (mit Limits)</li><li><strong>Quellen:</strong>&nbsp;bis zu 50 (Free-Version)</li><li><strong>Funktion:</strong>&nbsp;KI-gestützte Wissensorganisation</li><li><strong>Status:</strong>&nbsp;Desktop verfügbar, Mobile folgt</li></ul><p><br></p><h2>Was sind Gemini Notebooks?</h2><p><br></p><p>Die Notebooks-Funktion in&nbsp;Gemini&nbsp;ist ein KI-gestützter Arbeitsbereich. Du kannst:</p><p><br></p><ul><li>Chats speichern</li><li>Quellen bündeln</li><li>Inhalte analysieren</li></ul><p><br></p><p>Das Ganze erinnert stark an&nbsp;NotebookLM&nbsp;– nur integriert. <a href="https://www.wiribu.de/google-gemini-personal-ki" target="_blank">Gemini</a> Notebooks sind kein Feature – sie sind dein zweites Gehirn.</p><p><br></p><p style="text-align: center;"><img src="https://www.wiribu.de/uploads/images/google-gemini-notebooks-funktion-jetzt-frei-verfugbar.webp" alt="Gemini Notebooks kostenlos: Features, Limits &amp; lohnt sich das?" class="" style="display: block; margin: 0px auto 1rem;"></p><p><br></p><h2>Release &amp; Verfügbarkeit</h2><p><br></p><ul><li>Ursprünglich: nur für zahlende Nutzer</li><li>Jetzt: auch kostenlos verfügbar</li><li>Plattform:</li><li class="ql-indent-1">Desktop ✔</li><li class="ql-indent-1">Mobile ❌ (kommt bald)</li><li class="ql-indent-1">Mac-App ❌ (noch offen)</li></ul><p><br></p><h2>Preis &amp; Limits</h2><p><br></p><p>Kostenlos:</p><ul><li>bis zu 50 Quellen</li></ul><h2><br></h2><p>Paid-Tiers:</p><ul><li>AI Plus: 100 Quellen</li><li>Pro: 300 Quellen</li><li>Ultra: 600 Quellen</li></ul><p><br></p><p>Google gibt dir genug, um abhängig zu werden – und verkauft dir dann mehr.</p><p><br></p><h2>Features: Das kann die Funktion wirklich</h2><h3><br></h3><h3>Zentrale Wissenssammlung</h3><p><br></p><ul><li>alle Quellen an einem Ort</li><li>strukturierte Inhalte</li></ul><h2><br></h2><h3>Kontextbasierte Antworten</h3><p><br></p><ul><li>KI nutzt ALLE gespeicherten Chats</li></ul><h2><br></h2><h3>Content-Erstellung</h3><p><br></p><ul><li>Zusammenfassungen</li><li>Infografiken</li><li>Video-Overviews</li></ul><h2><br></h2><h3>Anpassung</h3><p><br></p><ul><li>Tonfall steuerbar</li><li>Stil definierbar</li></ul><h2><br></h2><h3>Tools integriert</h3><p><br></p><ul><li>Websuche</li><li>KI-Analyse</li></ul><p><br></p><p><strong>1. Ist Gemini Notebooks wirklich kostenlos?</strong></p><p>Ja, mit Einschränkungen (bis zu 50 Quellen).</p><p><strong>2. Was bringt die Funktion konkret?</strong></p><p>Sie organisiert Wissen und verbessert KI-Antworten durch Kontext.</p><p><strong>3. Ist das wie NotebookLM?</strong></p><p>Ja, aber direkt in Gemini integriert.</p><p><strong>4. Gibt es die Funktion mobil?</strong></p><p>Noch nicht – Rollout steht bevor.</p>        ]]></content:encoded>
        
                <media:content url="https://www.wiribu.de/uploads/images/gemini-notebooks-kostenlos-features-limits-lohnt-sich-das.webp" medium="image">
            <media:title type="html">Gemini Notebooks kostenlos: Features, Limits &amp;amp; lohnt sich das?</media:title>
        </media:content>
            </item>
            <item>
        <title>OpenAI GPT-Rosalind: Das neue KI-Modell speziell für die Biologie</title>
        <link>https://wiribu.de/gpt-rosalind-openai-biologie</link>
        <pubDate>Fri, 17 Apr 2026 14:28:58 +0300</pubDate>
        <dc:creator><![CDATA[Wiribu | Tech Gaming News]]></dc:creator>
        <guid isPermaLink="true">https://wiribu.de/gpt-rosalind-openai-biologie</guid>
        <description><![CDATA[
            <img src="https://www.wiribu.de/uploads/images/gpt-rosalind-featured.webp" alt="OpenAI GPT-Rosalind: Das neue KI-Modell speziell für die Biologie" style="width:100%; max-width:600px; margin-bottom:10px;" /><br/>OpenAI stellt GPT-Rosalind vor – ein KI-Modell speziell für die biologische Forschung. Das Besondere: Es warnt, wenn ein Medikamenten-Target scheitern wird. Alle Details zum neuen Werkzeug für Pharma und Wissenschaft.        ]]></description>
        <content:encoded><![CDATA[
            <img src="https://www.wiribu.de/uploads/images/gpt-rosalind-featured.webp" alt="OpenAI GPT-Rosalind: Das neue KI-Modell speziell für die Biologie" /><br/><p>OpenAI hat am 17. April 2026 ein neues KI-Modell vorgestellt, das speziell für die biologische Forschung entwickelt wurde: <strong>GPT-Rosalind</strong>. Das Modell richtet sich an Wissenschaftler in der Medikamentenentwicklung – und bringt dabei etwas mit, das bisherige KI-Tools oft vermissen lassen: gesunden Skeptizismus.</p><h2>Was ist GPT-Rosalind genau?</h2><p>GPT-Rosalind ist ein Sprachmodell, das auf einem riesigen Datensatz biologischer Fachliteratur, klinischer Studien und Forschungsergebnisse aus der Pharmakologie trainiert wurde. Im Gegensatz zu allgemeinen KI-Modellen kennt GPT-Rosalind die Fallstricke der Arzneimittelentwicklung aus Millionen von Experimenten – darunter auch all die Versuche, die gescheitert sind. Wer das Modell nach einem potenziellen Drug-Target fragt, bekommt keine blinde Bestätigung, sondern eine kritische Einschätzung.</p><h2>Der skeptische Ansatz: Warum das wichtig ist</h2><p>Das Besondere an GPT-Rosalind: Das Modell warnt aktiv, wenn ein biologisches Wirkstoff-Ziel mit hoher Wahrscheinlichkeit scheitern wird. Die KI analysiert Muster in historischen Studiendaten und erkennt, wenn ein neuer Ansatz einem bereits mehrfach gescheiterten ähnelt. Das klingt simpel – ist aber in der Praxis revolutionär. Denn in der pharmazeutischen Industrie werden jährlich Milliarden Euro in Projekte gesteckt, die am Ende doch nicht funktionieren. GPT-Rosalind könnte helfen, solche Fehlschläge früher zu identifizieren.</p><p><br></p><h2><img src="/uploads/images/gpt-rosalind-research.webp" alt="OpenAI GPT-Rosalind KI-Modell für Biologie und Drug Discovery">Warum ist diese Entwicklung bedeutsam?</h2><p>Bis heute stützen sich Forschungsteams bei der Target-Auswahl meist auf menschliche Intuition, Literaturrecherchen und manchmal schlicht auf Glück. Ein Werkzeug, das aus Millionen vergangener Experimente lernt und dabei auch Fehler einbezieht, füllt eine echte Lücke. OpenAI positioniert GPT-Rosalind nicht als Ersatz für Biologen, sondern als kritischen Partner – ähnlich wie ein erfahrener Kollege, der sofort sagt: "Wir haben das schon dreimal versucht, es klappt nicht."</p><h2>Auswirkungen für Forscher und Pharmaunternehmen</h2><p>Wer im Labor forscht oder Medikamente entwickelt, könnte durch GPT-Rosalind erheblich Zeit und Budget sparen. Praktisch bedeutet das: Statt Monate an einem Target zu arbeiten, das am Ende scheitert, kann das Team früher umschwenken. Für große Pharmaunternehmen ist das eine riesige Chance – auch wenn die Implementierung natürlich noch Vertrauensaufbau braucht. Schließlich arbeitet man nicht blind nach dem, was eine KI empfiehlt.</p><h2>Verfügbarkeit und Zugang</h2><p>GPT-Rosalind steht zunächst nur einem begrenzten Kreis aus akademischen Institutionen und ausgewählten Pharmaunternehmen zur Verfügung. OpenAI hat angekündigt, den Zugang schrittweise zu erweitern. Ein genaues Datum für einen breiteren Release wurde bislang nicht genannt. Interessenten können sich für eine Warteliste registrieren.</p><h2>Technische Details</h2><p>GPT-Rosalind basiert auf der GPT-5-Architektur, wurde aber mit einem domänenspezifischen Datensatz von über 40 Millionen biologischen Publikationen und Studien verfeinert. Das Modell verfügt über eine spezielle Funktion zur Konfidenzeinschätzung – es gibt also nicht nur eine Antwort, sondern auch eine Wahrscheinlichkeit für sein eigenes Urteil. Das erhöht die Transparenz deutlich gegenüber klassischen KI-Systemen. Im Vergleich zu Google DeepMinds AlphaFold fokussiert sich Rosalind nicht auf Proteinstrukturen, sondern auf die Bewertung therapeutischer Angriffspunkte.</p><p>Wer wissen will, wie weit KI in der Medizin bereits gekommen ist, sollte auch einen Blick auf <a href="/google-gemini-personal-ki" target="_blank">Google Geminis Einsatz im Gesundheitsbereich</a> werfen. Einen anderen Blickwinkel auf KI-Fortschritte bietet außerdem <a href="/anthropic-claude-opus-47" target="_blank">Anthropic Claude Opus 4.7</a>, das ebenfalls für anspruchsvolle Forschungsaufgaben optimiert wurde.</p><h2>Vergleich mit ähnlichen Projekten</h2><p>GPT-Rosalind ist nicht das erste KI-Modell für die Biologie. DeepMind hat mit AlphaFold die Proteinstrukturvorhersage revolutioniert, Insilico Medicine und Recursion nutzen KI für die Drug Discovery. Was GPT-Rosalind unterscheidet, ist die direkte Integration eines kritischen Feedbacks in die Ausgabe – also nicht nur "Das könnte funktionieren", sondern auch "Das wird wahrscheinlich nicht funktionieren, weil...".</p><h2>Redaktionelle Einschätzung</h2><p>Das hier ist ehrlich gesagt genau das, worauf viele Forscher gewartet haben. Nicht ein weiteres Hype-Tool, das alles schönredet, sondern eines, das gelernt hat, Nein zu sagen. Ob GPT-Rosalind wirklich hält, was es verspricht, wird sich erst in der Praxis zeigen – aber der Ansatz ist mutig und richtig. OpenAI verlässt damit die Komfortzone der allgemeinen KI und wagt sich in hochspezialisiertes Terrain. Das verdient Respekt, und genau das ist der Schritt, den die KI-Industrie jetzt braucht.</p>        ]]></content:encoded>
        
                <media:content url="https://www.wiribu.de/uploads/images/gpt-rosalind-featured.webp" medium="image">
            <media:title type="html">OpenAI GPT-Rosalind: Das neue KI-Modell speziell für die Biologie</media:title>
        </media:content>
            </item>
            <item>
        <title>Starbucks in ChatGPT: Die KI empfiehlt jetzt deinen Kaffee nach Stimmung</title>
        <link>https://wiribu.de/starbucks-chatgpt-kaffee</link>
        <pubDate>Thu, 16 Apr 2026 19:40:18 +0300</pubDate>
        <dc:creator><![CDATA[Wiribu | Tech Gaming News]]></dc:creator>
        <guid isPermaLink="true">https://wiribu.de/starbucks-chatgpt-kaffee</guid>
        <description><![CDATA[
            <img src="https://www.wiribu.de/uploads/images/starbucks-chatgpt-featured.webp" alt="Starbucks in ChatGPT: Die KI empfiehlt jetzt deinen Kaffee nach Stimmung" style="width:100%; max-width:600px; margin-bottom:10px;" /><br/>Starbucks launcht eine Beta-App in ChatGPT: Die KI empfiehlt Getränke basierend auf deiner Stimmung – per Text oder Foto. Was steckt dahinter?        ]]></description>
        <content:encoded><![CDATA[
            <img src="https://www.wiribu.de/uploads/images/starbucks-chatgpt-featured.webp" alt="Starbucks in ChatGPT: Die KI empfiehlt jetzt deinen Kaffee nach Stimmung" /><br/><h2>Starbucks und ChatGPT: Wenn KI die Kaffeewahl übernimmt</h2><p>Ein Kaffee morgens, zwei nach dem Mittagessen, und abends noch ein Tee – und manchmal weiß man einfach nicht, was gerade passt. Starbucks hat eine Antwort darauf: Die Kaffeekette startet eine Beta-App in ChatGPT, die auf Basis von Stimmung, Tageszeit und persönlichen Vorlieben passende Getränke empfiehlt. Das klingt nach einem Gimmick – ist aber tatsächlich ein durchdachter Schritt in Richtung KI-gestützter Gastronomie.</p><p><br></p><h2><img src="/uploads/images/starbucks-chatgpt-content.webp" alt="Starbucks ChatGPT-Integration für personalisierte Kaffeerekommendationen per Smartphone">So funktioniert die Starbucks-App in ChatGPT</h2><p>Das Konzept ist denkbar einfach: Nutzer öffnen ChatGPT und starten die Starbucks-Beta-App direkt im Interface. Dann beschreiben sie – in eigenen Worten – wie sie sich gerade fühlen. „Ich bin müde und brauche was Starkes", „Heute ist mir nach etwas Süßem", „Es ist heiß draußen, ich will was Kaltes". Die KI wertet diese Eingabe aus und macht einen konkreten Getränkevorschlag mit Erklärung, warum genau dieses Getränk zur aktuellen Stimmung passt.</p><p>Wer kein Getränk im Kopf hat, kann auch ein Foto schicken – zum Beispiel von der aktuellen Umgebung, dem Wetter oder der eigenen Stimmung – und ChatGPT interpretiert das Bild als Inspiration für die Getränkeauswahl. Die Bestellung selbst ist über die App nicht möglich, aber der Vorschlag lässt sich direkt in der Starbucks-App weiterverfolgen.</p><h2>Warum das mehr ist als ein Marketing-Stunt</h2><p>Auf den ersten Blick könnte man das als PR-Aktion abtun – Starbucks + ChatGPT = Headline. Aber dahinter steckt ein echter Trend: Marken integrieren sich in KI-Interfaces, um dort präsent zu sein, wo ihre Kunden zunehmend Zeit verbringen. ChatGPT hat monatlich über 200 Millionen aktive Nutzer. Wer als Marke dort eine native Integration hat, ist Teil eines neuen Vertriebskanals.</p><p>Das ist vergleichbar mit der Zeit, als Marken begannen, eigene Apps zu entwickeln – damals war das auch erst ein Experiment, heute ist es Standard. Starbucks testet hier, ob Konsumenten bereit sind, ihre Kaffeewahl an eine KI zu delegieren. Und die frühen Nutzerberichte aus der Beta klingen positiv.</p><h2>Auswirkungen auf Nutzer</h2><p>Wer die Beta ausprobiert, bekommt einen überraschend persönlichen Erfahrungsgang. Die KI fragt nach, schlägt Alternativen vor und erklärt ihre Wahl. Das ist mehr als ein simpler „Empfehlung des Tages"-Button. Für Kaffeeliebhaber, die gerne experimentieren, aber nicht wissen, wo sie anfangen sollen, ist das ein echter Mehrwert.</p><p>Gleichzeitig: Die Funktion ist klar auf US-Märkte ausgerichtet. Ob und wann sie nach Deutschland kommt, ist offen. Starbucks testet das erst in begrenztem Rahmen – wer ChatGPT Plus oder Pro hat, kann die Beta-App aber bereits suchen und aktivieren. Mehr KI-Innovationen im Alltag beleuchtet unser Artikel zu <a href="/google-gemini-personal-ki" target="_blank">Google Gemini Personal KI</a>.</p><h2>Datum &amp; Verfügbarkeit</h2><p>Die Starbucks-Beta-App in ChatGPT wurde im April 2026 gestartet. Sie ist zunächst für ChatGPT-Plus- und Pro-Nutzer verfügbar und läuft als Beta im GPT-Store von OpenAI. Eine breite Verfügbarkeit oder eine Expansion nach Europa ist noch nicht angekündigt – aber angesichts der Reichweite von ChatGPT wäre das der logische nächste Schritt.</p><h2>Technische Details</h2><p>Technisch gesehen ist die Starbucks-App ein sogenannter GPT-Agent – also ein angepasstes ChatGPT-Interface mit spezifischem System-Prompt, Starbucks-Menüdaten und optional aktivierter Bildverarbeitung. Ähnliche Integrationen gibt es bereits von Marken wie Expedia (für Reisebuchungen) oder Kayak. Starbucks erweitert das Modell um eine emotionale Ebene: Die Stimmungsanalyse geht über reine Schlüsselwörter hinaus und nutzt die Natural-Language-Fähigkeiten von GPT-4o für kontextsensitive Empfehlungen.</p><p>Der GPT-Store von OpenAI hat seit seiner Einführung tausende spezialisierter Agenten – Starbucks ist einer der ersten großen Markenpartner, der eine wirklich durchdachte Nutzererfahrung dort aufbaut. Das unterscheidet die App von vielen der eher rudimentären GPT-Plugins.</p><h2>Vergleich mit ähnlichen Ansätzen</h2><p>McDonald's hatte bereits ein KI-System für automatisierte Drive-Through-Bestellungen getestet – das wurde nach Anlaufschwierigkeiten gestoppt. Starbucks wählt einen anderen Weg: nicht Automatisierung der Bestellung, sondern Inspiration der Auswahl. Das ist deutlich niedrigschwelliger und weniger fehleranfällig. Wer sich für das Zusammenspiel von KI und Technologieplattformen interessiert, findet in unserem Bericht zu <a href="/anthropic-claude-opus-47" target="_blank">Claude Opus 4.7</a> weitere Einblicke in die KI-Landschaft 2026.</p><h2>Redaktionsmeinung</h2><p>Starbucks und ChatGPT – das klingt auf den ersten Blick nach einer dieser Tech-PR-Maßnahmen, die niemand braucht. Aber nach näherer Betrachtung ist das Konzept tatsächlich clever. Nicht wegen der Technik, sondern wegen der Positionierung: Starbucks ist dort, wo seine Kunden gerade neue digitale Gewohnheiten entwickeln.</p><p>Die eigentliche Frage ist nicht, ob eine KI guten Kaffee empfehlen kann. Die Frage ist, ob Kunden bereit sind, KI-Empfehlungen in ihr Konsumverhalten zu integrieren. Und die Antwort wird in den nächsten zwölf Monaten kommen. Wir beobachten das mit Interesse – und einem Flat White.</p>        ]]></content:encoded>
        
                <media:content url="https://www.wiribu.de/uploads/images/starbucks-chatgpt-featured.webp" medium="image">
            <media:title type="html">Starbucks in ChatGPT: Die KI empfiehlt jetzt deinen Kaffee nach Stimmung</media:title>
        </media:content>
            </item>
            <item>
        <title>ChatGPT merkt sich dein Gesicht: Das Referenzfoto-Feature kommt bald</title>
        <link>https://wiribu.de/chatgpt-referenzfoto-gesicht</link>
        <pubDate>Thu, 16 Apr 2026 19:39:21 +0300</pubDate>
        <dc:creator><![CDATA[Wiribu | Tech Gaming News]]></dc:creator>
        <guid isPermaLink="true">https://wiribu.de/chatgpt-referenzfoto-gesicht</guid>
        <description><![CDATA[
            <img src="https://www.wiribu.de/uploads/images/chatgpt-face-featured.webp" alt="ChatGPT merkt sich dein Gesicht: Das Referenzfoto-Feature kommt bald" style="width:100%; max-width:600px; margin-bottom:10px;" /><br/>OpenAI arbeitet an einem Referenzfoto-Feature für ChatGPT: Einmal hochladen, dauerhaft nutzen – die KI kennt dann dein Gesicht für alle Bildgenerierungen.        ]]></description>
        <content:encoded><![CDATA[
            <img src="https://www.wiribu.de/uploads/images/chatgpt-face-featured.webp" alt="ChatGPT merkt sich dein Gesicht: Das Referenzfoto-Feature kommt bald" /><br/><h2>ChatGPT erkennt bald dein Gesicht – das steckt hinter dem Referenzfoto-Feature</h2><p>OpenAI bereitet eine Funktion vor, die das Erstellen von KI-Bildern deutlich vereinfacht: das sogenannte Referenzfoto. Die Idee ist simpel, aber wirkungsvoll – du lädst einmalig ein Foto von dir hoch, und ChatGPT kann es fortan als Basis für alle weiteren Bildgenerierungen nutzen. Kein erneutes Hochladen, kein Beschreiben. Einfach fragen – und dein Gesicht ist dabei.</p><p><br></p><h2><img src="/uploads/images/chatgpt-face-content.webp" alt="ChatGPT Referenzfoto-Funktion auf dem Smartphone – KI-Bilderstellung mit eigenem Gesicht">Wie das Referenzfoto-Feature funktioniert</h2><p>Wer aktuell ein KI-Bild von sich selbst mit ChatGPT erstellen will, muss bei jeder Anfrage ein Foto hochladen – das nervt und unterbricht den Workflow. Mit der neuen Funktion wird das einmalig gespeichert. OpenAI testet derzeit ein Interface, bei dem Nutzer ein Referenzfoto in ihrem Profil hinterlegen können. Dieses Foto wird dann automatisch verwendet, wenn die KI bei der Bildgenerierung eine Person darstellen soll.</p><p>Das Feature ist noch in der Betaphase und wurde zuerst von Entwicklern in den Code-Strings von ChatGPT entdeckt. Ein offizieller Launch-Termin steht noch aus, aber die Hinweise deuten auf einen baldigen Rollout hin – zumindest für ausgewählte Plus- und Pro-Nutzer.</p><h2>Warum ist das wichtig?</h2><p>Das Erstellen personalisierter KI-Bilder ist eines der beliebtesten Features von ChatGPT – gerade seit GPT-4o den Bildgenerator integriert hat. Der aktuelle Workflow hat aber einen echten Schwachpunkt: Man muss jedes Mal sein Foto manuell beifügen. Das hält viele Nutzer davon ab, die Funktion regelmäßig zu nutzen.</p><p>Das Referenzfoto-Feature macht daraus einen deutlich flüssigeren Prozess. Und das in einem Markt, wo sich KI-Tools zunehmend daran messen lassen müssen, wie wenig Reibung sie im Alltag erzeugen. Wer schon gesehen hat, wie nahtlos <a href="/google-gemini-personal-ki" target="_blank">Google Gemini die persönliche KI-Integration</a> angeht, versteht, warum OpenAI hier nachjustieren muss.</p><h2>Auswirkungen auf Nutzer</h2><p>Praktisch bedeutet das: Wer die Funktion einrichtet, kann ab sofort Bildanfragen wie „Erstelle ein Foto von mir im Stil der 1920er Jahre" oder „Zeig mich als Astronauten" direkt stellen – ohne manuellen Upload. Die KI zieht das hinterlegte Bild automatisch ran.</p><p>Das öffnet auch neue kreative Möglichkeiten: Geburtstagsbilder, Profilfotos für verschiedene Plattformen, personalisierte Grußkarten. Gleichzeitig werden Datenschutzfragen relevanter – wer will, dass OpenAI dauerhaft ein Foto seines Gesichts speichert?</p><h2>Datum &amp; Verfügbarkeit</h2><p>Stand April 2026 ist das Feature noch nicht offiziell live. Die Spuren im ChatGPT-Code deuten auf einen Rollout in den nächsten Wochen hin. Zuerst werden voraussichtlich Plus- und Pro-Nutzer Zugang bekommen, bevor die Funktion breiter ausgerollt wird. OpenAI hat sich bisher nicht offiziell zum geplanten Launch-Datum geäußert.</p><h2>Technische Details</h2><p>Technisch ist das Referenzfoto-Feature eng mit dem bestehenden Image-Memory-System von ChatGPT verknüpft. OpenAI hat in den vergangenen Monaten kontinuierlich die Memory-Funktionen ausgebaut – Texte, Präferenzen und Kontexte können gespeichert werden. Das Referenzfoto wäre eine visuelle Erweiterung dieses Systems.</p><p>Intern wird das Bild wahrscheinlich als Embedding gespeichert – eine mathematische Repräsentation des Gesichts, die bei der Bildgenerierung als Anker dient. DALL-E 3, der Bildgenerator hinter ChatGPT, unterstützt bereits referenzbasiertes Generieren bei manuell hochgeladenen Fotos. Die neue Funktion automatisiert diesen Schritt nur.</p><h2>Vergleich mit der Konkurrenz</h2><p>Google Fotos bietet bereits eine Remix-Funktion, bei der das eigene Gesicht für KI-Bilder genutzt werden kann – allerdings nur innerhalb des Google-Ökosystems. Midjourney hat eine ähnliche Feature-Request-Liste, ohne bisher eine einfache Profilfoto-Lösung zu bieten. ChatGPT wäre damit der erste große Consumer-KI-Dienst, der ein systemweites Referenzfoto-Profil anbietet. Mehr zur KI-Strategie von OpenAI und ihrer Konkurrenz gibt es in unserem Artikel zu <a href="/anthropic-claude-opus-47" target="_blank">Anthropic Claude Opus 4.7</a>.</p><h2>Redaktionsmeinung</h2><p>Das ist ein Feature, das kommen musste. Jeder, der regelmäßig personalisierte KI-Bilder erstellt, kennt das Ärgernis des manuellen Foto-Uploads. Dass OpenAI das jetzt löst, ist längst überfällig – aber gut, dass es kommt.</p><p>Der Datenschutz bleibt das große Fragezeichen. Ein dauerhaft gespeichertes Gesichtsfoto auf OpenAI-Servern ist eine andere Dimension als ein einmalig hochgeladenes Bild. Nutzer sollten diese Funktion bewusst einrichten – und sich vorher fragen, ob sie OpenAI dauerhaft mit diesen Daten vertrauen wollen. Ein optionaler Modus mit lokalem Speicher wäre wünschenswert.</p>        ]]></content:encoded>
        
                <media:content url="https://www.wiribu.de/uploads/images/chatgpt-face-featured.webp" medium="image">
            <media:title type="html">ChatGPT merkt sich dein Gesicht: Das Referenzfoto-Feature kommt bald</media:title>
        </media:content>
            </item>
            <item>
        <title>Anthropic Claude Opus 4.7 ist da – das steckt im neuen KI-Modell</title>
        <link>https://wiribu.de/anthropic-claude-opus-47</link>
        <pubDate>Thu, 16 Apr 2026 19:38:25 +0300</pubDate>
        <dc:creator><![CDATA[Wiribu | Tech Gaming News]]></dc:creator>
        <guid isPermaLink="true">https://wiribu.de/anthropic-claude-opus-47</guid>
        <description><![CDATA[
            <img src="https://www.wiribu.de/uploads/images/claude-opus47-featured.webp" alt="Anthropic Claude Opus 4.7 ist da – das steckt im neuen KI-Modell" style="width:100%; max-width:600px; margin-bottom:10px;" /><br/>Anthropic hat Claude Opus 4.7 gestartet: besseres Software-Engineering, autonomes Arbeiten und ein neuer /ultrareview-Befehl für Entwickler. Was ist wirklich neu?        ]]></description>
        <content:encoded><![CDATA[
            <img src="https://www.wiribu.de/uploads/images/claude-opus47-featured.webp" alt="Anthropic Claude Opus 4.7 ist da – das steckt im neuen KI-Modell" /><br/><h2>Claude Opus 4.7: Was Anthropic da veröffentlicht hat, ist mehr als ein Update</h2><p>Anthropic hat Claude Opus 4.7 offiziell gestartet – und wer dachte, das sei nur ein kleines Versionsupdate, liegt falsch. Der neue Opus ist vor allem auf fortgeschrittenes Software-Engineering ausgelegt, bringt verbesserte autonome Fähigkeiten und setzt damit die mittlerweile bewährte Zwei-Monats-Taktung von Anthropic fort. Opus 4.6 kam vor zwei Monaten, jetzt ist 4.7 da – und die Unterschiede sind spürbar.</p><p><br></p><h2><img src="/uploads/images/claude-opus47-content.webp" alt="Anthropic Claude Opus 4.7 KI-Modell für Software-Engineering und komplexe Aufgaben">Was Opus 4.7 konkret besser kann</h2><p>Der Fokus liegt klar auf Software-Entwicklung und komplexen, mehrstufigen Aufgaben. Claude Opus 4.7 soll laut Anthropic besonders dann glänzen, wenn es um autonomes Arbeiten geht – also Situationen, in denen das Modell nicht nach jedem Schritt auf menschliche Eingabe warten soll. Dazu zählen: komplexe Coding-Tasks mit mehreren Abhängigkeiten, systematisches Debuggen über mehrere Dateien hinweg und längere Planungsaufgaben, die Schritt für Schritt umgesetzt werden müssen.</p><p>Anthropic betont außerdem, dass Opus 4.7 beim Reasoning – also dem strukturierten Denken und Problemlösen – erneut besser geworden ist. Das macht es besonders für Entwickler interessant, die KI nicht nur als Autocomplete, sondern als echten Mitdenker einsetzen wollen.</p><h2>Warum das für die KI-Branche relevant ist</h2><p>Zwei Dinge fallen beim Start von Opus 4.7 auf: Erstens hält Anthropic seinen schnellen Entwicklungszyklus konsequent durch. Alle zwei Monate ein neues Modell – das ist ein klares Statement gegenüber OpenAI und Google, die ihre Releases weniger berechenbar takten. Zweitens: Das autonome Arbeiten wird immer mehr zum Hauptkriterium bei KI-Modellen, nicht mehr nur die Qualität einer einzelnen Antwort.</p><p>Wer sich mit Google Geminis neuer Persönliche-KI-Integration beschäftigt hat – unser Artikel <a href="/google-gemini-personal-ki" target="_blank">Google Gemini Personal KI</a> beleuchtet das – merkt, dass sich die großen KI-Anbieter gerade alle auf echte Alltagsintegration fokussieren. Anthropic setzt dabei stärker auf den professionellen, technischen Use Case.</p><h2>Auswirkungen auf Nutzer und Entwickler</h2><p>Wer Claude über die API oder über Claude.ai Pro/Max nutzt, bekommt automatisch Zugriff auf das neue Modell. Für Entwickler bedeutet das: bessere Ergebnisse bei agentic Tasks, also Aufgaben, bei denen Claude eigenständig Entscheidungen trifft und mehrere Schritte ausführt. Für Mac-Nutzer gibt es außerdem eine Neuerung in der Claude-Code-App: Der „Auto-Modus", der bisher nur Enterprise- und API-Kunden vorbehalten war, ist jetzt auch für Max-Abonnenten freigeschaltet.</p><p>Dazu kommt ein neuer Befehl namens /ultrareview – der prüft Code-Änderungen mit der Sorgfalt eines erfahrenen Senior-Entwicklers und markiert potenzielle Fehler, bevor sie sich festsetzen.</p><h2>Datum &amp; Verfügbarkeit</h2><p>Claude Opus 4.7 wurde am 16. April 2026 offiziell von Anthropic gestartet. Das Modell ist über die Claude-API sowie für Nutzer des Pro- und Max-Abonnements auf claude.ai verfügbar. Die Claude-Code-App für Mac erhält das Update ebenfalls – inklusive der neuen Auto-Modus-Erweiterung für Max-Nutzer.</p><h2>Technische Details</h2><p>Ein Hinweis für API-Entwickler: Anthropic hat mit Opus 4.7 den Tokenizer überarbeitet. Je nach Inhalt kann derselbe Input nun 1,0 bis 1,35-mal mehr Token verbrauchen als zuvor. Das ist kein Bug, sondern eine bewusste Designentscheidung für präzisere Verarbeitung. Gleichzeitig produziert das Modell bei schwierigen Aufgaben mehr Output-Token, weil es tiefer denkt – was sich direkt in der API-Abrechnung niederschlagen kann.</p><p>Die Verbesserungen im Bereich autonomes Arbeiten laufen intern über ein erweitertes Tool-Use-Framework, das dem Modell erlaubt, Zwischenschritte selbst zu planen und bei Bedarf zu korrigieren – ohne menschliche Unterbrechung. Das ist die technische Grundlage für die stärkere agentic Performance.</p><h2>Vergleich mit der Konkurrenz</h2><p>GPT-4o von OpenAI ist nach wie vor stark im kreativen und conversational Bereich, während Claude Opus 4.7 beim technischen Reasoning und langen Kontexten punktet. Googles Gemini Ultra richtet sich stärker an Consumer-Integration – wie die neue <a href="/samsung-one-ui-85-beta" target="_blank">Samsung One UI 8.5</a>-Verzahnung zeigt. Anthropic bleibt bewusst im professionellen Segment und positioniert Claude als das präziseste Modell für anspruchsvolle Aufgaben.</p><h2>Redaktionsmeinung</h2><p>Claude Opus 4.7 ist genau das, was professionelle KI-Nutzer brauchen: kein Marketing-Hype, sondern echte Verbesserungen in Bereichen, die täglich relevant sind. Die Zwei-Monats-Kadenz von Anthropic ist mittlerweile eines der verlässlichsten Versprechen in der KI-Branche – und das ist im Jahr 2026 keine Selbstverständlichkeit.</p><p>Was uns besonders überzeugt: /ultrareview. Wer regelmäßig mit KI-generiertem Code arbeitet, kennt das Problem – der Code sieht gut aus, hat aber subtile Fehler. Ein Tool, das genau hier ansetzt, ist mehr wert als noch mehr Kontext-Fenster. Anthropic denkt da gerade in die richtige Richtung.</p>        ]]></content:encoded>
        
                <media:content url="https://www.wiribu.de/uploads/images/claude-opus47-featured.webp" medium="image">
            <media:title type="html">Anthropic Claude Opus 4.7 ist da – das steckt im neuen KI-Modell</media:title>
        </media:content>
            </item>
            <item>
        <title>Google Gemini liest deine Mails und Fotos – Persönliche KI jetzt offiziell live</title>
        <link>https://wiribu.de/google-gemini-personal-ki</link>
        <pubDate>Thu, 16 Apr 2026 19:37:28 +0300</pubDate>
        <dc:creator><![CDATA[Wiribu | Tech Gaming News]]></dc:creator>
        <guid isPermaLink="true">https://wiribu.de/google-gemini-personal-ki</guid>
        <description><![CDATA[
            <img src="https://www.wiribu.de/uploads/images/gemini-personal-featured-v2.webp" alt="Google Gemini liest deine Mails und Fotos – Persönliche KI jetzt offiziell live" style="width:100%; max-width:600px; margin-bottom:10px;" /><br/>Google Gemini Personal Intelligence ist live: Die KI liest deine Mails, Fotos, Drive-Dokumente und Maps – und gibt dir endlich wirklich personalisierte Antworten.        ]]></description>
        <content:encoded><![CDATA[
            <img src="https://www.wiribu.de/uploads/images/gemini-personal-featured-v2.webp" alt="Google Gemini liest deine Mails und Fotos – Persönliche KI jetzt offiziell live" /><br/><h2>Google Gemini liest jetzt deine Mails und Fotos – die Persönliche KI ist live</h2><p>Wer sich schon immer gewünscht hat, dass ein KI-Assistent wirklich versteht, was man gerade braucht – ohne ständig alles von Hand eintippen zu müssen – hat jetzt seinen Wunsch erfüllt bekommen. Google hat die sogenannte „Personal Intelligence"-Funktion für Gemini offiziell gestartet. Das bedeutet: Gemini kann ab sofort auf deine Gmail-Nachrichten, Google Fotos, Drive-Dokumente, YouTube-Verlauf und Google Maps-Daten zugreifen und damit echte, personalisierte Antworten liefern.</p><p><br></p><h2><img src="/uploads/images/gemini-personal-content-v2.webp" alt="Google Gemini Personal Intelligence Funktion mit Gmail und Google Fotos Integration">Was steckt hinter der Funktion?</h2><p>Kurz gesagt: Gemini verbindet sich direkt mit deinem Google-Ökosystem. Statt allgemeiner Antworten bekommst du Informationen, die auf deinen eigenen Daten basieren. Du fragst nach dem letzten Urlaub? Gemini durchsucht deine Fotos. Du willst wissen, ob dein Paket geliefert wurde? Gemini liest deine Mails. Du willst einen Restaurant-Vorschlag basierend auf deinen letzten Besuchen? Maps-Verlauf fließt mit ein.</p><p>Das klingt fast wie Magie – ist aber technisch gesehen eine clevere Integration. Alle Daten bleiben dabei im Google-Ökosystem. Es gibt laut Google keine Datenweitergabe an Drittanbieter. Zusätzlich zeigt Gemini bei jeder personalisierten Antwort die Quelle an – also aus welcher E-Mail oder welchem Dokument die Info stammt. Wer das alles lieber offline halten will, kann den sogenannten „temporären Chat"-Modus aktivieren, in dem keine Unterhaltungen gespeichert werden.</p><h2>Warum ist das wichtig?</h2><p>Das ist kein kleines Feature-Update. Google schlägt damit eine Brücke zwischen allgemeiner KI und echter Personalisierung – etwas, das die Branche seit Jahren als den nächsten großen Schritt beschreibt. ChatGPT weiß nicht, was in deinen Mails steht. Siri kennt zwar deinen Kalender, kann aber keine komplexen Zusammenhänge erklären. Gemini Personal Intelligence versucht, beides zu kombinieren.</p><p>Für Google ist das strategisch: Je tiefer Gemini ins tägliche digitale Leben eingebunden ist, desto schwieriger wird der Wechsel zu einer anderen KI-Plattform. Praktisch bedeutet das – wer Gemini erlaubt, seine Mails zu lesen, wird kaum mehr zu einem Konkurrenten wechseln wollen, der das nicht kann.</p><h2>Auswirkungen auf Nutzer</h2><p>Das größte Plus: Du musst viel weniger manuell eingeben. Wer früher erst googeln, dann Mails durchsuchen und dann noch einen Screenshot machen musste, um einem Assistenten Kontext zu geben, kann jetzt einfach fragen. Das spart Zeit – vor allem im Alltag, bei der Reiseplanung oder bei der Arbeit mit Drive-Dokumenten.</p><p>Der Haken liegt im Vertrauen. Wer Gemini diese Tiefenintegration erlaubt, gibt einer KI Zugriff auf sehr persönliche Daten. Das ist keine Frage von Gut oder Schlecht – es ist eine Abwägung, die jeder Nutzer selbst treffen muss. Mehr zum Thema KI und Datenschutz im Alltag zeigt unser Artikel über die <a href="/apple-2026-neue-produkte" target="_blank">Apple 2026 Produktlinie</a> und ihre KI-Strategie.</p><h2>Datum &amp; Verfügbarkeit</h2><p>Die Funktion ist seit dem 15. April 2026 offiziell live. Wer ein Google-Abo hat – AI Plus, Pro oder Ultra – kann die Persönliche KI sofort aktivieren. Für kostenlose Nutzer plant Google einen gestaffelten Rollout in den nächsten Wochen. Die Aktivierung läuft über: Gemini-App öffnen → Einstellungen → Persönliche KI / Extensions → Google-Dienste verbinden.</p><h2>Technische Details</h2><p>Technisch basiert die Integration auf Googles internem Extension-Framework. Gemini greift über autorisierte API-Verbindungen auf Gmail, Fotos, Drive, Maps und YouTube zu – keine Drittanbieter-Middleware ist involviert. Die Datenverarbeitung läuft serverseitig in Googles Cloud-Infrastruktur, unterstützt durch die Gemini-1.5-Pro-Architektur mit einem erweiterten Kontextfenster, das laut Google über zwei Millionen Token fasst.</p><p>Das sorgt dafür, dass Gemini auch lange E-Mail-Verläufe oder umfangreiche Drive-Dokumente in einer einzigen Anfrage verarbeiten kann – ohne dass der Nutzer Ausschnitte manuell einfügen muss. Wer parallel zu KI-Tools auch die Kameratechnik moderner Smartphones spannend findet, sollte unseren Artikel zur <a href="/iphone-18-pro-variable-blende-kamera" target="_blank">iPhone 18 Pro variablen Blende</a> lesen.</p><h2>Vergleich mit der Konkurrenz</h2><p>Apple Intelligence auf dem iPhone kann zwar auf lokale Daten wie Kalender und Nachrichten zugreifen, bleibt dabei aber bewusst lokal – ohne Cloud-Tiefe. Microsoft Copilot greift in Office 365 auf E-Mails und Dokumente zu, ist aber primär auf Business-Nutzung ausgerichtet. Googles Ansatz ist breiter und consumer-orientierter – was ihn für Alltagsnutzer attraktiver, aber auch sensibler macht.</p><h2>Redaktionsmeinung</h2><p>Google Gemini Personal Intelligence ist beeindruckend – und gleichzeitig ein Schritt, den man mit klarem Kopf angehen sollte. Die Integration ist nahtlos und der Mehrwert ist real: Wer seine gesamte digitale Welt in Google verwaltet, bekommt einen Assistenten, der endlich wirklich versteht, was gemeint ist.</p><p>Aber: Wer nicht will, dass eine KI seine Mails liest, sollte die Funktion schlicht nicht aktivieren. Google gibt diese Kontrolle – transparent und opt-in. Das ist positiv zu werten. Wer hingegen die Integration voll ausschöpft, dürfte schnell merken, dass das die Art ist, wie KI-Assistenten immer hätten funktionieren sollen.</p>        ]]></content:encoded>
        
                <media:content url="https://www.wiribu.de/uploads/images/gemini-personal-featured-v2.webp" medium="image">
            <media:title type="html">Google Gemini liest deine Mails und Fotos – Persönliche KI jetzt offiziell live</media:title>
        </media:content>
            </item>
            <item>
        <title>ColorOS 16: Oppo bringt neue KI-Funktionen aufs Find X9 Ultra</title>
        <link>https://wiribu.de/coloros-16-oppo-bringt-neue-ki-funktionen-aufs-find-x9-ultra</link>
        <pubDate>Thu, 16 Apr 2026 19:32:59 +0300</pubDate>
        <dc:creator><![CDATA[Wiribu | Tech Gaming News]]></dc:creator>
        <guid isPermaLink="true">https://wiribu.de/coloros-16-oppo-bringt-neue-ki-funktionen-aufs-find-x9-ultra</guid>
        <description><![CDATA[
            <img src="https://www.wiribu.de/uploads/images/oppo-erweitert-coloros-16-auf-dem-find-x9-ultra-um-neue-ki-funktionen.webp" alt="ColorOS 16: Oppo bringt neue KI-Funktionen aufs Find X9 Ultra" style="width:100%; max-width:600px; margin-bottom:10px;" /><br/>Oppo hat einige neue KI-Funktionen vorgestellt, die auf dem kommenden Find X9 Ultra, das am 21. April vorgestellt werden soll, in der ColorOS-Benutzeroberfläche auf Basis von Android 16 verfügbar sein werden.        ]]></description>
        <content:encoded><![CDATA[
            <img src="https://www.wiribu.de/uploads/images/oppo-erweitert-coloros-16-auf-dem-find-x9-ultra-um-neue-ki-funktionen.webp" alt="ColorOS 16: Oppo bringt neue KI-Funktionen aufs Find X9 Ultra" /><br/><p>Mit&nbsp;<strong>ColorOS 16</strong>&nbsp;geht&nbsp;Oppo&nbsp;einen klaren Schritt in Richtung KI-Zukunft – und das neue&nbsp;<a href="https://www.wiribu.de/oppo-find-x9-ultra-das-kamera-flaggschiff-mit-200-mp-startet-am-21-april" target="_blank">Find X9 Ultra</a>&nbsp;wird zur Bühne für genau diese Vision. Statt nur mit Hardware zu glänzen, setzt Oppo auf ein intelligentes, lernendes System, das sich unauffällig in den Alltag integriert.</p><p><br></p><p>Der Fokus liegt nicht auf auffälligen Features, sondern auf subtiler Automatisierung. Genau hier unterscheidet sich Oppo von vielen Konkurrenten: KI soll nicht stören, sondern im Hintergrund arbeiten. Doch funktioniert dieser Ansatz wirklich?</p><p><br></p><h3>Was ist ColorOS 16?</h3><p><br></p><p><strong>ColorOS 16</strong>&nbsp;ist die neueste Version von Oppos Betriebssystem – basierend auf Android, aber stark angepasst. Der entscheidende Unterschied: KI ist&nbsp;<strong>kein Feature</strong>, sondern das Fundament.</p><p><br></p><p>Während andere Hersteller KI oft als einzelne Tools präsentieren, integriert Oppo sie tief ins System.</p><p><br></p><h3>Warum ist das wichtig?</h3><p><br></p><p>Der Smartphone-Markt verändert sich. Hardware allein reicht nicht mehr. Software + KI entscheiden über den Mehrwert. Genau hier setzt Oppo an:</p><p><br></p><ul><li>weniger Apps</li><li>mehr Automatisierung</li><li>smartere Abläufe</li></ul><p><br></p><p style="text-align: center;"><img src="https://www.wiribu.de/uploads/images/coloros-16-oppo-bringt-neue-ki-funktionen-aufs-find-x9-ultra.webp" alt="ColorOS 16: Oppo bringt neue KI-Funktionen aufs Find X9 Ultra" class="" style="display: block; margin: 0px auto 1rem;"></p><p><br></p><h3>AI Mind Space: Automatische Organisation</h3><p>Eine der spannendsten Funktionen ist der&nbsp;<strong>AI Mind Space</strong>. Was macht er?</p><p><br></p><ul><li>analysiert Inhalte auf dem Bildschirm</li><li>speichert relevante Infos automatisch</li><li>organisiert alles in durchsuchbare Erinnerungen</li></ul><p><br></p><p>Beispiel:</p><p><br></p><p>Du siehst eine Adresse oder ein Event →  das System erkennt es → speichert es → macht es später auffindbar</p><p><br></p><p>Das passiert ohne manuelles Eingreifen. Das ist echte „unsichtbare KI“.</p><p><br></p><h3>AI Bill Manager: Schluss mit Quittungs-Chaos</h3><p><br></p><p>Der&nbsp;<strong>AI Bill Manager</strong>&nbsp;ist besonders praktisch im Alltag. Funktionen:</p><p><br></p><ul><li>scannt Rechnungen (Foto oder digital)</li><li>extrahiert relevante Daten</li><li>organisiert Ausgaben automatisch</li></ul><p><br></p><p>Ergebnis: Dein Smartphone wird zum Spesen-Tool. Das ersetzt oft:</p><p><br></p><ul><li>separate Finanz-Apps</li><li>manuelle Eingaben</li></ul><p><br></p><h3>AI Mind Pilot: Personalisierte Intelligenz</h3><p><br></p><p>Hier wird es richtig interessant. Der&nbsp;<strong>AI Mind Pilot</strong>&nbsp;geht über klassische Assistenten hinaus. Er kombiniert:</p><p><br></p><ul><li>Nutzerdaten</li><li>Kontext</li><li>verschiedene <a href="https://www.wiribu.de/kategorie/ai" target="_blank">KI-Modelle</a></li></ul><p><br></p><p>Ergebnis:</p><p><br></p><ul><li>personalisierte Antworten</li><li>mehrere Perspektiven gleichzeitig</li><li>smartere Vorschläge</li></ul><p><br></p><p>Das erinnert an Systeme wie&nbsp;ChatGPT&nbsp;– aber direkt im System integriert.</p><p><br></p><h3>Was ist das Highlight von ColorOS 16?</h3><p>Die tief integrierte KI, die automatisch Aufgaben übernimmt.</p><h3>Ist die KI sichtbar?</h3><p>Kaum – sie arbeitet größtenteils im Hintergrund.</p><h3>Brauche ich zusätzliche Apps?</h3><p>Weniger als vorher – viele Funktionen sind direkt im System integriert.</p>        ]]></content:encoded>
        
                <media:content url="https://www.wiribu.de/uploads/images/oppo-erweitert-coloros-16-auf-dem-find-x9-ultra-um-neue-ki-funktionen.webp" medium="image">
            <media:title type="html">ColorOS 16: Oppo bringt neue KI-Funktionen aufs Find X9 Ultra</media:title>
        </media:content>
            </item>
            <item>
        <title>Gemini App für Mac: Googles KI jetzt nativ auf macOS</title>
        <link>https://wiribu.de/gemini-app-fur-mac-googles-ki-jetzt-nativ-auf-macos</link>
        <pubDate>Thu, 16 Apr 2026 11:53:18 +0300</pubDate>
        <dc:creator><![CDATA[Wiribu | Tech Gaming News]]></dc:creator>
        <guid isPermaLink="true">https://wiribu.de/gemini-app-fur-mac-googles-ki-jetzt-nativ-auf-macos</guid>
        <description><![CDATA[
            <img src="https://www.wiribu.de/uploads/images/gemini-app-fur-mac-googles-ki-jetzt-nativ-auf-macos.webp" alt="Gemini App für Mac: Googles KI jetzt nativ auf macOS" style="width:100%; max-width:600px; margin-bottom:10px;" /><br/>Der Google-Komplex hat eine App namens Gemini für seinen Desktop hergestellt und veröffentlicht, aber nachdem ich die App ausprobiert habe, bin ich zu der Überzeugung gelangt, dass sie eher ein schnelles Werkzeug darstellt anstatt eines kompletten Assistenten wie Siri.        ]]></description>
        <content:encoded><![CDATA[
            <img src="https://www.wiribu.de/uploads/images/gemini-app-fur-mac-googles-ki-jetzt-nativ-auf-macos.webp" alt="Gemini App für Mac: Googles KI jetzt nativ auf macOS" /><br/><p>Die&nbsp;<strong>Gemini App für Mac</strong>&nbsp;ist da – und bringt Googles KI erstmals als native Desktop-Anwendung auf macOS. Nach dem Windows-Start legt&nbsp;Google&nbsp;nach und greift direkt Apples Ökosystem an.</p><p><br></p><p>Bislang war der Zugriff auf Gemini nur über Browser möglich. Jetzt wird der KI-Assistent tief ins System integriert – inklusive Shortcuts, Menüleisten-Zugriff und nativer Performance. Die Frage ist: Wird Gemini damit zur echten Alternative zu Apples eigener <a href="https://www.wiribu.de/kategorie/ai" target="_blank">KI-Strategie</a>?</p><p><br></p><h3>Was ist die Gemini App für Mac?</h3><p><br></p><p>Die&nbsp;<strong>Gemini App für Mac</strong>&nbsp;ist die erste echte Desktop-App von Google für macOS. Sie ist&nbsp;<strong>keine Web-App</strong>, sondern komplett nativ entwickelt – mit Swift, Apples eigener Programmiersprache. Das bringt klare Vorteile:</p><p><br></p><ul><li>bessere Performance</li><li>tiefere Systemintegration</li><li>stabilere Nutzung</li></ul><p><br></p><p>Laut&nbsp;Josh Woodward&nbsp;wurde die App in weniger als 100 Tagen von einem kleinen Team entwickelt – ein ungewöhnlich schneller Rollout für Google.</p><p><br></p><p style="text-align: center;"><img src="https://www.wiribu.de/uploads/images/was-ist-die-gemini-app-fur-mac.webp" alt="Gemini App für Mac: Googles KI jetzt nativ auf macOS" class="" style="display: block; margin: 0px auto 1rem;"></p><p><br></p><h3>Warum ist das wichtig?</h3><p><br></p><p>Bisher war Gemini auf dem Mac umständlich:</p><p><br></p><ul><li>Nutzung über Browser</li><li>kein direkter Zugriff</li><li>kein echter Workflow-Vorteil</li></ul><p><br></p><p>Jetzt ändert sich das grundlegend.</p><p><br></p><h3>Features: Das kann die Gemini App</h3><p><br></p><p>Die neue App deckt ein breites Spektrum ab:</p><p><br></p><h4>Produktivität &amp; Alltag</h4><p><br></p><ul><li>Texte schreiben</li><li>Inhalte zusammenfassen</li><li>Ideen generieren</li></ul><h4><br></h4><h4>Entwickler-Features</h4><p><br></p><ul><li>Code erstellen</li><li>Debugging unterstützen</li></ul><h4><br></h4><h4>Multimodale KI</h4><p><br></p><ul><li>Bilder analysieren</li><li>Kontext verstehen</li></ul><p><br></p><h3>Integration in macOS</h3><p><br></p><p>Hier spielt die App ihre Stärke aus.</p><h4><br></h4><h4>Schneller Zugriff per Shortcut</h4><p><br></p><ul><li><strong>Option + Leertaste</strong>&nbsp;→ Mini-Chat</li><li><strong>Option + Shift + Leertaste</strong>&nbsp;→ Vollansicht</li></ul><p><br></p><p><a href="https://www.wiribu.de/gemini-auf-dem-pixel-10-wird-agentic-und-bucht-jetzt-uber-fur-dich" target="_blank">Gemini</a> für Mac ist verfügbare und kostenlos nutzbar auf Mac-Rechnern, bei denen ein Betriebssystem von macOS 15 oder neuer installiert ist. Die freie Version des Desktop-Assistenten ist beschränkt, was Google durch das Angebot von kostenpflichtigen Abonnements kompensiert. Preise für die drei Pakete lauten: Google AI Plus kostet 7,99 US-Dollar monatlich, Google AI Pro – 19,99 US-Dollar und Google AI Ultra – 249,99 US-Dollar.</p><p><br></p><p>Google berichtet, dass die Entwicklung der App für Mac eine neue Etappe auf dem Weg zur Verwirklichung eines persönlichen, proaktiven und performanten Desktop-Ass</p><p><br></p><h3>Ist die Gemini App für Mac kostenlos?</h3><p>Ja, die App kann kostenlos heruntergeladen und genutzt werden.</p><h3>Welche macOS-Version wird benötigt?</h3><p>Mindestens macOS 15 oder neuer.</p><h3>Kann Gemini Siri ersetzen?</h3><p>Nicht direkt – aber eine Integration in zukünftige Siri-Versionen ist möglich.</p>        ]]></content:encoded>
        
                <media:content url="https://www.wiribu.de/uploads/images/gemini-app-fur-mac-googles-ki-jetzt-nativ-auf-macos.webp" medium="image">
            <media:title type="html">Gemini App für Mac: Googles KI jetzt nativ auf macOS</media:title>
        </media:content>
            </item>
            <item>
        <title>Google Desktop App für Windows: KI-Suche ohne Browser</title>
        <link>https://wiribu.de/google-desktop-app-fur-windows-ki-suche-ohne-browser</link>
        <pubDate>Wed, 15 Apr 2026 11:38:36 +0300</pubDate>
        <dc:creator><![CDATA[Wiribu | Tech Gaming News]]></dc:creator>
        <guid isPermaLink="true">https://wiribu.de/google-desktop-app-fur-windows-ki-suche-ohne-browser</guid>
        <description><![CDATA[
            <img src="https://www.wiribu.de/uploads/images/was-ist-die-google-desktop-app-fur-windows.webp" alt="Google Desktop App für Windows: KI-Suche ohne Browser" style="width:100%; max-width:600px; margin-bottom:10px;" /><br/>Google hat die Desktop‑App für Windows‑Nutzer weltweit veröffentlicht. Die Desktop‑App von Google für Windows‑Nutzer ermöglicht die Suche mit künstlicher Intelligenz, die Bildschirmfreigabe, Google Lens und das Einbinden von Drive über einen einzigen Tastaturbefehl, und ein Browser muss dafür nicht geöffnet werden.         ]]></description>
        <content:encoded><![CDATA[
            <img src="https://www.wiribu.de/uploads/images/was-ist-die-google-desktop-app-fur-windows.webp" alt="Google Desktop App für Windows: KI-Suche ohne Browser" /><br/><p>Die Google Desktop App für Windows bringt die Google-Suche direkt auf den Desktop – und verändert damit, wie wir täglich mit Informationen arbeiten. Statt Browser öffnen, Tabs wechseln und Zeit verlieren, genügt jetzt ein Shortcut.</p><p><br></p><p>Was wie ein kleines Update klingt, ist in Wahrheit ein strategischer Schritt von Google. Denn die neue <a href="https://www.wiribu.de/kategorie/apps" target="_blank">App</a> kombiniert lokale Suche, Web-Ergebnisse und künstliche Intelligenz in einer einzigen Oberfläche.&nbsp;</p><p><br></p><h2>Was ist die Google Desktop App für Windows?</h2><p><br></p><p>Die neue Google Desktop App für Windows ist keine klassische Anwendung – und vor allem kein getarnter Browser wie <a href="https://www.wiribu.de/google-chrome-fuhrt-vertikale-tabs-und-einen-immersiven-lesemodus-ein" target="_blank">Google Chrome</a>.</p><p><br></p><p>Stattdessen handelt es sich um eine eigenständige Desktop-App, die im Hintergrund läuft und jederzeit abrufbar ist. Sie wurde entwickelt, um eine zentrale Suchschnittstelle zu bieten – unabhängig davon, was du gerade machst.</p><p><br></p><p style="text-align: center;"><img src="https://www.wiribu.de/uploads/images/google-desktop-app-fur-windows-ki-suche-ohne-browser.webp" alt="Google Desktop App für Windows: KI-Suche ohne Browser" class="" style="display: block; margin: 0px auto 1rem;"></p><p><br></p><h3>So funktioniert die neue Desktop-Suche</h3><h3><br></h3><p>Der Einstieg ist bewusst minimalistisch gehalten:</p><p><br></p><ul><li>Tastenkombination:&nbsp;Alt + Leertaste</li><li>Sofort öffnet sich ein zentrales Suchfeld</li><li>Keine Ladezeiten, kein Kontextwechsel</li></ul><p><br></p><p>Von dort aus kannst du:</p><p><br></p><ul><li>im Web suchen</li><li>lokale Dateien finden</li><li>installierte Programme starten</li><li>Inhalte aus Google Drive durchsuchen</li></ul><p><br></p><h3>Warum ist das wichtig?</h3><p><br></p><p>Die Stärke der App liegt nicht in einzelnen Features – sondern im Workflow.</p><p>Bisher sah der Alltag so aus:</p><p><br></p><ol><li>Browser öffnen</li><li>Google aufrufen</li><li>Suche starten</li><li>Ergebnis auswählen</li></ol><p><br></p><p>Jetzt reicht: Shortcut → Suchbegriff → Ergebnis</p><p><br></p><p>Das spart Zeit. Und noch wichtiger: Es reduziert mentale Unterbrechungen. Gerade für Menschen, die viel am Computer arbeiten, ist das ein echter Produktivitäts-Boost.</p><p><br></p><h3>Der KI-Modus: Das eigentliche Highlight</h3><p><br></p><p>Das Herzstück der&nbsp;<strong>Google Desktop App für Windows</strong>&nbsp;ist der integrierte KI-Modus. Und hier wird es spannend. Die KI ist kein Extra-Feature – sie ist direkt im Suchprozess eingebaut. Nutzer stellen Fragen und erhalten sofort:</p><p><br></p><ul><li>direkte Antworten</li><li>strukturierte Informationen</li><li>relevante Web-Links</li></ul><p><br></p><p>Das Konzept erinnert an die bekannten KI-Übersichten in der Google-Suche – nur deutlich schneller und direkter.</p><p><br></p><h3>Was bedeutet das für Nutzer?</h3><p><br></p><p>Die Auswirkungen sind größer, als es auf den ersten Blick wirkt.</p><h4><br></h4><h4>Vorteile:</h4><p><br></p><ul><li>Massive Zeitersparnis</li><li>Zentrale Kontrolle über Dateien &amp; Apps</li><li>Nahtlose Integration von Cloud-Inhalten</li><li>KI direkt im Arbeitsfluss</li></ul><p><br></p><h3>Ist die Google Desktop App kostenlos?</h3><p>Ja, die App wird kostenlos angeboten und richtet sich an alle Windows-Nutzer.</p><h3><br></h3><h3>Welche Sprachen werden unterstützt?</h3><p>Zum Start ist die App nur auf Englisch verfügbar. Weitere Sprachen dürften folgen.</p><h3><br></h3><h3>Ersetzt die App den Browser?</h3><p>Nicht komplett – aber sie reduziert die Nutzung deutlich, besonders für schnelle Suchen.</p>        ]]></content:encoded>
        
                <media:content url="https://www.wiribu.de/uploads/images/was-ist-die-google-desktop-app-fur-windows.webp" medium="image">
            <media:title type="html">Google Desktop App für Windows: KI-Suche ohne Browser</media:title>
        </media:content>
            </item>
            <item>
        <title>Gemini auf dem Pixel 10 wird agentic – und bucht jetzt Uber für dich</title>
        <link>https://wiribu.de/gemini-pixel-screen-automation</link>
        <pubDate>Tue, 14 Apr 2026 19:43:38 +0300</pubDate>
        <dc:creator><![CDATA[Wiribu | Tech Gaming News]]></dc:creator>
        <guid isPermaLink="true">https://wiribu.de/gemini-pixel-screen-automation</guid>
        <description><![CDATA[
            <img src="https://www.wiribu.de/uploads/images/gemini-pixel-featured.webp" alt="Gemini auf dem Pixel 10 wird agentic – und bucht jetzt Uber für dich" style="width:100%; max-width:600px; margin-bottom:10px;" /><br/>Google erweitert Gemini auf dem Pixel 10 um Screen Automation: Die KI bedient Apps selbstständig und bucht zum Beispiel Uber-Fahrten – mit Nutzerbetätigung vor dem Abschluss.        ]]></description>
        <content:encoded><![CDATA[
            <img src="https://www.wiribu.de/uploads/images/gemini-pixel-featured.webp" alt="Gemini auf dem Pixel 10 wird agentic – und bucht jetzt Uber für dich" /><br/><p>Google hat Gemini auf dem Pixel 10 einen deutlichen Schritt weiter gebracht. Die sogenannte Screen Automation erlaubt es der KI, Apps eigenständig zu bedienen – ohne dass der Nutzer jeden Schritt selbst ausführen muss. Uber buchen, Essen bestellen, Kaffee vorbestellen: Gemini erledigt das jetzt auf Wunsch allein. Das ist kein futuristisches Versprechen mehr, sondern läuft seit dem April-Update auf allen Pixel-10-Modellen.</p><h2>Was kann Screen Automation genau?</h2><p>Das Feature versteckt sich in den Gemini-App-Einstellungen unter "Screen Automation". Dort können Nutzer festlegen, für welche Apps Gemini aktiv werden darf. Unterstützt werden bisher: Uber, Lyft, Uber Eats, DoorDash, Grubhub und Starbucks. Der Ablauf ist simpel: Man sagt Gemini, was man möchte – zum Beispiel "Bestell mir bei DoorDash eine Pizza" – und die KI öffnet die App, wählt das Produkt aus, gibt die Adresse ein und zeigt die Bestellübersicht. Erst dann muss der Nutzer einmal tippen, um die Aktion abzuschließen. Das ist wichtig: Gemini schließt keine Transaktionen ohne Bestätigung ab.</p><p><br></p><h2><img src="/uploads/images/gemini-pixel-content.webp" alt="Gemini Screen Automation auf Pixel 10 – KI bedient Apps automatisch für den Nutzer">Warum ist das wichtig?</h2><p>Das heißt: Agentic AI – KI, die nicht nur antwortet, sondern handelt – kommt endlich auf Mainstream-Geräten an. Bislang war so etwas nur in Entwickler-Demos oder spezialisierten Apps zu sehen. Dass Google das direkt auf dem Pixel integriert, ist ein starkes Signal. Das Pixel-Ökosystem bekommt damit ein Feature, das kein anderes Android-Gerät in dieser Form hat – zumindest vorerst. Samsung-Nutzer können sich auf eine breitere Einführung freuen, der Rollout auf Galaxy-Geräten wurde ebenfalls angekündigt.</p><h2>Was bedeutet das für Nutzer?</h2><p>Praktisch bedeutet das: Wer viel Uber oder DoorDash nutzt, spart sich repetitive Klickpfade. Man öffnet die App nicht mehr selbst, navigiert nicht durch Menüs – man sagt einfach, was man will. Für Menschen mit eingeschränkter Mobilität ist das sogar echte Barrierefreiheit. Der Vorbehalt bleibt aber: Die App-Liste ist noch sehr kurz. Wer kein Uber, Lyft oder Starbucks nutzt, hat vorerst wenig davon. Ob und wann weitere Apps folgen, hängt von der Entwickler-API ab, die Google bereitstellt.</p><h2>Wann kam das Feature?</h2><p>Screen Automation wurde mit dem April-2026-Update für alle Pixel-10-Modelle freigeschaltet – also Pixel 10, 10 Pro, 10 Pro XL und 10 Pro Fold. Ältere Pixel-Modelle sind nicht unterstützt. Samsung hat angekündigt, das Feature in einem späteren Update für Galaxy-Geräte zu bringen, einen konkreten Zeitplan gibt es aber noch nicht.</p><h2>Technische Details</h2><p>Die Screen Automation basiert auf Gemini Nano, dem on-device KI-Modell im Pixel 10. Das bedeutet: Alle Aktionen laufen lokal, ohne Daten an Googles Server zu senden. Gemini liest den Bildschirminhalt aus und navigiert durch App-UIs wie ein menschlicher Nutzer. Eine Bestätigung ist vor jeder abschließenden Aktion (z.B. Zahlung) Pflicht. Die Funktion lässt sich pro App aktivieren oder deaktivieren. Die aktuell unterstützten Apps: Uber, Lyft, Uber Eats, DoorDash, Grubhub, Starbucks.</p><h2>Vergleich mit der Konkurrenz</h2><p>Apple hat mit Siri Shortcuts und App Intents zwar ähnliche Konzepte, aber keine vergleichbare In-App-Automation durch eine KI. Microsoft Copilot auf Windows versucht ebenfalls, Workflows zu automatisieren – läuft aber auf einem anderen Use Case. Das <a href="https://wiribu.de/android-16-april-update-pixel-bugfixes" target="_blank">Android-16-April-Update</a> hat zusätzlich zu Screen Automation auch einen Desktop Mode gebracht, der das Pixel 10 zum Mini-PC macht. Außerdem zeigt der <a href="https://wiribu.de/google-pixel-10a-isai-blue-japan-exklusiv" target="_blank">Pixel 10a mit Isai Blue-Farbe</a>, wie breit das Pixel-Lineup gerade aufgestellt ist.</p><h2>Redaktionsmeinung</h2><p>Ich finde Screen Automation genuinen Fortschritt – aber ich bin gleichzeitig vorsichtig. Eine KI, die in meinem Namen Bestellungen platziert, hat Zugriff auf meine Apps, meine Adresse, meine Zahlungsdaten. Google sagt, alles läuft lokal ab und ohne Bestätigung passiert nichts. Das klingt gut. Aber die Frage ist, wie lange bis Entwickler diese API für Zwecke nutzen, die weniger klar im Interesse des Nutzers sind. Vorerst ist die Feature-Liste kurz genug, um das zu kontrollieren. Der echte Test kommt, wenn die App-Liste wächst.</p>        ]]></content:encoded>
        
                <media:content url="https://www.wiribu.de/uploads/images/gemini-pixel-featured.webp" medium="image">
            <media:title type="html">Gemini auf dem Pixel 10 wird agentic – und bucht jetzt Uber für dich</media:title>
        </media:content>
            </item>
            <item>
        <title>YouTube: 90-Sekunden-Werbung auf dem TV war ein Bug – aber der Trend geht in diese Richtung</title>
        <link>https://wiribu.de/youtube-90-sekunden-werbung-bug-tv</link>
        <pubDate>Sat, 11 Apr 2026 14:22:18 +0300</pubDate>
        <dc:creator><![CDATA[Wiribu | Tech Gaming News]]></dc:creator>
        <guid isPermaLink="true">https://wiribu.de/youtube-90-sekunden-werbung-bug-tv</guid>
        <description><![CDATA[
            <img src="https://www.wiribu.de/uploads/images/youtube-pixel-tv-ads.webp" alt="YouTube: 90-Sekunden-Werbung auf dem TV war ein Bug – aber der Trend geht in diese Richtung" style="width:100%; max-width:600px; margin-bottom:10px;" /><br/>Nutzer sahen plötzlich 90-sekündige, nicht überspringbare Werbeclips auf YouTube für den TV. YouTube erklärte: Das war ein Bug. Doch der Druck hin zu längeren TV-Werbespots bleibt real.        ]]></description>
        <content:encoded><![CDATA[
            <img src="https://www.wiribu.de/uploads/images/youtube-pixel-tv-ads.webp" alt="YouTube: 90-Sekunden-Werbung auf dem TV war ein Bug – aber der Trend geht in diese Richtung" /><br/><p>Anfang April 2026 berichteten zahlreiche YouTube-Nutzer in Foren und sozialen Medien über ein unangenehmes Phänomen: Auf Smart-TVs und Connected-TV-Geräten wurden plötzlich 90 Sekunden lange, nicht überspringbare Werbeclips eingeblendet – deutlich länger als die bislang bekannten 30-Sekunden-Spots. Die Reaktion der Community war heftig. YouTube meldete sich daraufhin zu Wort und stellte klar: Diese Werbeform existiert offiziell nicht.</p><h2>Was genau ist passiert?</h2><p>Betroffene Nutzer sahen auf ihren Fernsehern Werbepausen, die statt der üblichen 30 Sekunden plötzlich 90 Sekunden zählten – und nicht übersprungen werden konnten. Die Berichte häuften sich besonders für Videos zwischen 20 und 40 Minuten Länge, was darauf hindeutet, dass die Anzeigedauer nicht direkt von der Videolänge abhing. Screenshots und Videos von den überlangen Anzeigen verbreiteten sich schnell auf Reddit und X (ehemals Twitter).</p><p><br></p><h2><img src="/uploads/images/youtube-ad-context.webp" alt="Google und YouTube Werbedienste">YouTubes Erklärung: Ein Bug</h2><p>YouTube bestätigte in einer Stellungnahme, dass es kein 90-Sekunden-Werbeformat gibt und auch keines getestet wird. Die längeren Countdowns seien auf einen Software-Fehler zurückzuführen, der zu falschen Zeitanzeigen führte. Die eigentliche Werbedauer war laut YouTube kürzer als angegeben – der Timer zeigte schlicht die falsche Zahl. Das Problem wurde identifiziert und behoben.</p><h2>Kontext: YouTubes Werbestrategie auf dem TV</h2><p>Der Vorfall kam nicht aus dem Nichts: YouTube hatte erst kürzlich die Einführung von 30-Sekunden-Werbeclips auf Connected-TV-Geräten bestätigt – eine Länge, die sonst nur im linearen Fernsehen üblich ist. Damit versucht YouTube, traditionelle TV-Werbebudgets anzuziehen. Vor diesem Hintergrund ist es nachvollziehbar, dass Nutzer bei einem vermeintlichen 90-Sekunden-Spot sofort Alarm schlugen.</p><h2>Was bedeutet das für YouTube-Nutzer?</h2><p>Kurzfristig nichts – der Bug ist behoben. Mittelfristig dürften Werbeclips auf dem TV aber länger werden, auch wenn 90 Sekunden aktuell nicht geplant sind. Wer Werbung grundsätzlich vermeiden möchte, bleibt bei YouTube Premium. Nutzer ohne Abonnement müssen sich darauf einstellen, dass YouTube seine Werbepolitik auf dem Fernseher zunehmend an das klassische TV angleicht.</p>        ]]></content:encoded>
        
                <media:content url="https://www.wiribu.de/uploads/images/youtube-pixel-tv-ads.webp" medium="image">
            <media:title type="html">YouTube: 90-Sekunden-Werbung auf dem TV war ein Bug – aber der Trend geht in diese Richtung</media:title>
        </media:content>
            </item>
            <item>
        <title>Google AI Mode bekommt neues Design und bucht jetzt weltweit Restaurants</title>
        <link>https://wiribu.de/google-ai-mode-redesign-restaurant-booking-global</link>
        <pubDate>Sat, 11 Apr 2026 14:21:34 +0300</pubDate>
        <dc:creator><![CDATA[Wiribu | Tech Gaming News]]></dc:creator>
        <guid isPermaLink="true">https://wiribu.de/google-ai-mode-redesign-restaurant-booking-global</guid>
        <description><![CDATA[
            <img src="https://www.wiribu.de/uploads/images/google-ai-mode-plus-redesign.webp" alt="Google AI Mode bekommt neues Design und bucht jetzt weltweit Restaurants" style="width:100%; max-width:600px; margin-bottom:10px;" /><br/>Google AI Mode erhält ein neues Bottom-Sheet-Design und weitet die agentenbasierte Restaurantbuchung auf 8 neue Länder aus – darunter UK, Indien und Australien. Kein Lab-Opt-in nötig.        ]]></description>
        <content:encoded><![CDATA[
            <img src="https://www.wiribu.de/uploads/images/google-ai-mode-plus-redesign.webp" alt="Google AI Mode bekommt neues Design und bucht jetzt weltweit Restaurants" /><br/><p>Google hat Google AI Mode mit einem frischen Interface-Redesign ausgestattet und gleichzeitig die agentenbasierte Restaurantbuchung auf acht neue Länder ausgeweitet. Das Update rollt ab dem 10. April 2026 für Android- und iOS-Nutzer in der stabilen Version aus – ohne Lab-Opt-in erforderlich.</p><h2>Das neue „Plus"-Design</h2><p>Das bisherige Pop-up-Menü in AI Mode weicht einem neuen Bottom-Sheet-Design: Ein großes, persistent sichtbares Eingabefeld am unteren Bildschirmrand ersetzt die bisherige Bedienoberfläche. Große Buttons für Galerie und Kamera machen den Zugriff auf multimodale Eingaben direkter. Google bezeichnet das neue Layout intern als „Plus"-Redesign und sieht es als Schritt hin zu einer intuitiveren, app-ähnlicheren Nutzererfahrung innerhalb der Google-Suche.</p><p><br></p><h2><img src="/uploads/images/google-ai-mode-plus-booking.webp" alt="Google AI Mode Plus Buchungsfunktion">Restaurantbuchung jetzt weltweit</h2><p>Die KI-gestützte Funktion, mit der Nutzer direkt in der Google-Suche einen Tisch reservieren können, ist nun in acht weiteren Märkten verfügbar: Australien, Kanada, Hongkong, Indien, Neuseeland, Singapur, Südafrika und dem Vereinigten Königreich. In den USA war die Funktion bereits seit einigen Monaten verfügbar und hat laut Google durchweg positive Resonanz erhalten.</p><p>Der Ablauf ist dabei vollständig agentenbasiert: Man nennt AI Mode Restaurant, Datum, Uhrzeit und Personenzahl – und die KI erledigt die Buchung direkt über integrierte Drittanbieter-Dienste wie OpenTable und Resy, ohne dass man die Google-Suche verlassen muss.</p><h2>Mehr als nur Essen buchen</h2><p>Google arbeitet an einer weiteren Ausweitung der Agentic-Funktionen: Hotelbuchungen und Flugbuchungen sollen ebenfalls direkt in AI Mode möglich werden. Damit positioniert Google seine KI-Suchoberfläche zunehmend als vollwertigen Reise- und Alltagsassistenten – eine direkte Konkurrenz zu Booking.com, Expedia und Co. Noch sind Hotel- und Flugbuchungen nicht live, aber erste Tests sind bereits bekannt geworden.</p><h2>Fazit</h2><p>Das Redesign und die internationale Ausweitung der Buchungsfunktion machen AI Mode zu einem deutlich leistungsfähigeren Alltagstool. Wer noch nicht mit AI Mode vertraut ist: Die Funktion ist in der Google-Suche App für Android und iOS verfügbar und erfordert keine separaten Einstellungen mehr.</p>        ]]></content:encoded>
        
                <media:content url="https://www.wiribu.de/uploads/images/google-ai-mode-plus-redesign.webp" medium="image">
            <media:title type="html">Google AI Mode bekommt neues Design und bucht jetzt weltweit Restaurants</media:title>
        </media:content>
            </item>
            <item>
        <title>Android Bench April 2026: GPT-5.4 und Gemini teilen sich die Spitze</title>
        <link>https://wiribu.de/android-bench-april-2026-gpt-gemini-ranking</link>
        <pubDate>Fri, 10 Apr 2026 15:46:03 +0300</pubDate>
        <dc:creator><![CDATA[Wiribu | Tech Gaming News]]></dc:creator>
        <guid isPermaLink="true">https://wiribu.de/android-bench-april-2026-gpt-gemini-ranking</guid>
        <description><![CDATA[
            <img src="https://www.wiribu.de/uploads/images/android-bench-gemini-cover.webp" alt="Android Bench April 2026: GPT-5.4 und Gemini teilen sich die Spitze" style="width:100%; max-width:600px; margin-bottom:10px;" /><br/>Google hat seine Android-Bench-Rangliste aktualisiert: GPT-5.4 belegt gemeinsam mit Gemini 3.1 Pro Preview mit 72,4 % Platz eins – die beste KI fürs Android-Coding ist keine Selbstverständlichkeit mehr.        ]]></description>
        <content:encoded><![CDATA[
            <img src="https://www.wiribu.de/uploads/images/android-bench-gemini-cover.webp" alt="Android Bench April 2026: GPT-5.4 und Gemini teilen sich die Spitze" /><br/><p>Google hat seine „Android Bench"-Rangliste im April 2026 aktualisiert und zwei neue KI-Modelle hinzugefügt: OpenAIs GPT-5.4 und GPT-5.3-Codex. Das Ergebnis überrascht: GPT-5.4 teilt sich die Spitzenposition mit Googles eigenem Gemini 3.1 Pro Preview – beide kommen auf exakt 72,4 Prozent. Eine klare Aussage, dass Google-eigene Modelle nicht unangefochten bleiben.</p><h2>Was ist Android Bench?</h2><p>Android Bench ist Googles öffentliches Leaderboard, das zeigt, welche KI-Modelle am besten für die Entwicklung von Android-Apps geeignet sind. Der Benchmark misst, wie gut ein Modell mit wichtigen Android-Technologien umgehen kann: Jetpack Compose für die UI-Entwicklung, Coroutines und Flows für asynchrone Programmierung, Room für lokale Datenbankpersistenz und Hilt für Dependency Injection.</p><h2><img src="/uploads/images/android-bench-mwc-figures.webp" alt="Android Entwickler Statistiken">Die aktuelle Rangliste (April 2026)</h2><p>Die vollständige Rangliste nach dem April-Update sieht wie folgt aus: GPT-5.4 und Gemini 3.1 Pro Preview teilen sich mit 72,4 Prozent den ersten Platz. GPT-5.3-Codex folgt auf Rang drei mit 67,7 Prozent, gefolgt von Claude Opus 4.6 mit 66,6 Prozent und GPT-5.2 Codex mit 62,5 Prozent. OpenAI hat damit mit zwei neuen Modellen die Rangliste deutlich aufgemischt.</p><h2>Was bedeutet das für Android-Entwickler?</h2><p>Für Android-Entwickler, die auf KI-Unterstützung beim Coden setzen, ist die Botschaft klar: Es lohnt sich, über den Tellerrand zu schauen. Während Gemini naheliegend erscheint – immerhin ist es Googles eigenes Modell und tief in Android Studio integriert –, zeigen die Benchmark-Ergebnisse, dass OpenAIs Modelle gleichwertig oder sogar kompetitiv sind.</p><p>Google selbst betont, dass die Android-Bench-Ergebnisse nicht absolut zu verstehen sind. Faktoren wie persönlicher Workflow, Kosten, API-Zugang und Integration in die eigene Entwicklungsumgebung spielen eine große Rolle dabei, welches Modell im Alltag wirklich besser funktioniert.</p><h2>Ausblick</h2><p>Google aktualisiert Android Bench regelmäßig, wenn neue Modelle erscheinen oder bestehende signifikante Updates erhalten. Angesichts des rasanten Fortschritts im KI-Bereich – GPT-5 erschien erst vor wenigen Monaten, und bereits GPT-5.4 steht an der Spitze – dürfte sich die Rangliste schon bald wieder verändern. Für Entwickler ist es sinnvoll, die Rangliste im Auge zu behalten und gelegentlich ihr bevorzugtes Modell gegen die Konkurrenz zu testen.</p>        ]]></content:encoded>
        
                <media:content url="https://www.wiribu.de/uploads/images/android-bench-gemini-cover.webp" medium="image">
            <media:title type="html">Android Bench April 2026: GPT-5.4 und Gemini teilen sich die Spitze</media:title>
        </media:content>
            </item>
            <item>
        <title>Meta hat das erste Modell der neuen Produktfamilie vorgestellt – Muse Spark</title>
        <link>https://wiribu.de/meta-hat-das-erste-modell-der-neuen-produktfamilie-vorgestellt-muse-spark</link>
        <pubDate>Thu, 09 Apr 2026 17:40:52 +0300</pubDate>
        <dc:creator><![CDATA[Wiribu | Tech Gaming News]]></dc:creator>
        <guid isPermaLink="true">https://wiribu.de/meta-hat-das-erste-modell-der-neuen-produktfamilie-vorgestellt-muse-spark</guid>
        <description><![CDATA[
            <img src="https://www.wiribu.de/uploads/images/meta-hat-das-erste-modell-der-neuen-produktfamilie-vorgestellt-muse-spark.webp" alt="Meta hat das erste Modell der neuen Produktfamilie vorgestellt – Muse Spark" style="width:100%; max-width:600px; margin-bottom:10px;" /><br/>Meta Superintelligence Labs bringt mit „Muse Spark“ sein erstes Pioniermodell auf den Markt. Es ist zudem das erste KI-Modell von Meta, dessen Gewichte nicht öffentlich zugänglich sind. Unabhängige Tests zeigen, dass es zumindest vorerst die Lücke zu OpenAI, Anthropic und Google schließt.        ]]></description>
        <content:encoded><![CDATA[
            <img src="https://www.wiribu.de/uploads/images/meta-hat-das-erste-modell-der-neuen-produktfamilie-vorgestellt-muse-spark.webp" alt="Meta hat das erste Modell der neuen Produktfamilie vorgestellt – Muse Spark" /><br/><p>Meta Platforms kündigte die Einführung von <strong>Muse Spark</strong> an, seinem neuen fortschrittlichen KI-Modell, mit dem das Unternehmen direkt mit Giganten wie OpenAI, Google und Anthropic konkurrieren will. Das Unternehmen gab bekannt, dass dieses System Teil seiner neuen Modellfamilie „Muse“ ist, die mit dem Ziel entwickelt wurde, sich der sogenannten künstlichen Superintelligenz anzunähern – einem Stadium, in dem Maschinen die kognitiven Fähigkeiten des Menschen übertreffen könnten.</p><p><br></p><p><strong>Muse Spark</strong> ist nur der erste Schritt innerhalb von Meta Superintelligence Labs, der Abteilung, die gegründet wurde, um Systeme zu entwickeln, die in der Lage sind, die menschliche Umwelt umfassend zu verstehen.</p><p><br></p><p>Das Vorhaben ist ehrgeizig: <strong>Meta</strong> plant, in diesem Jahr bis zu 135 Milliarden Dollar in künstliche Intelligenz zu investieren – fast doppelt so viel wie im Jahr 2025.</p><p><br></p><h2>Was ist Muse Spark?</h2><p><br></p><p><strong>Muse Spark</strong> ist das erste Modell für künstliche Intelligenz, das unter der Leitung von Alexandr Wang, dem Leiter der KI-Abteilung bei <a href="http://wiribu.de/meta-ray-ban-brille-ernaehrung-tracking-ki" target="_blank">Meta</a>, entwickelt wurde, nachdem das Unternehmen mehrere Milliarden Dollar in Scale AI investiert hatte.</p><p>Dieses Modell, das zuvor unter dem Namen Avocado bekannt war, markiert den Beginn einer neuen technologischen Strategie bei <strong>Meta</strong>, die darauf abzielt, gegenüber der Konkurrenz wieder Boden gut zu machen.</p><p><br></p><p>Die Ankündigung hatte unmittelbare Auswirkungen auf den Markt: Die Meta-Aktie stieg nach der Bekanntgabe um bis zu 9 %, was das Vertrauen der Anleger in die <a href="http://wiribu.de/kategorie/ai" target="_blank">KI-Strategie</a> des Unternehmens widerspiegelt.</p><p><br></p><p style="text-align: center;"><img src="https://wiribu.de/uploads/images/was-ist-muse-spark.webp" class="" style="display: block; margin: 0px auto 1rem;"></p><p><br></p><h3>Wie funktioniert Muse Spark?</h3><p><br></p><p><strong>Muse Spark </strong>zeichnet sich durch die Integration fortschrittlicher multimodaler Schlussfolgerungsfähigkeiten aus, was bedeutet, dass es sowohl Text als auch Bilder gleichzeitig verarbeiten und verstehen kann.</p><p>Zu den wichtigsten Funktionen gehören:</p><p><br></p><ul><li>Fortschrittliche Schlussfolgerungen in Echtzeit</li><li>Native visuelle Interaktion</li><li>Nutzung externer Tools</li><li>Koordination mehrerer KI-Agenten</li><li>Visualisierung von Gedankengängen</li></ul><p><br></p><p>Um dies zu erreichen, hat <strong>Meta</strong> Techniken wie bestärkendes Lernen und Test-Time-Reasoning integriert, mit dem Ziel, die Effizienz des Modells zu maximieren.</p><p><br></p><p>Darüber hinaus gibt das Unternehmen an, dass das System ähnliche Aufgaben wie sein Vorgängermodell Llama 4 Maverick ausführen kann, jedoch mit geringeren Rechenanforderungen.</p>        ]]></content:encoded>
        
                <media:content url="https://www.wiribu.de/uploads/images/meta-hat-das-erste-modell-der-neuen-produktfamilie-vorgestellt-muse-spark.webp" medium="image">
            <media:title type="html">Meta hat das erste Modell der neuen Produktfamilie vorgestellt – Muse Spark</media:title>
        </media:content>
            </item>
            <item>
        <title>Google AI Edge Eloquent: Offline-Diktat-App für iOS ohne Abo</title>
        <link>https://wiribu.de/google-ai-edge-eloquent-ios</link>
        <pubDate>Tue, 07 Apr 2026 09:04:32 +0300</pubDate>
        <dc:creator><![CDATA[Wiribu | Tech Gaming News]]></dc:creator>
        <guid isPermaLink="true">https://wiribu.de/google-ai-edge-eloquent-ios</guid>
        <description><![CDATA[
            <img src="https://www.wiribu.de/uploads/images/google-ai-edge-eloquent-cover.webp" alt="Google AI Edge Eloquent: Offline-Diktat-App für iOS ohne Abo" style="width:100%; max-width:600px; margin-bottom:10px;" /><br/>Google hat „AI Edge Eloquent&quot; für iOS veröffentlicht – eine Offline-Sprachdiktier-App, die gesprochene Sprache in polierten Text umwandelt, ohne Abonnement und ohne Internetverbindung.        ]]></description>
        <content:encoded><![CDATA[
            <img src="https://www.wiribu.de/uploads/images/google-ai-edge-eloquent-cover.webp" alt="Google AI Edge Eloquent: Offline-Diktat-App für iOS ohne Abo" /><br/><p>Google hat eine neue App für iOS veröffentlicht, die aufhorchen lässt: „AI Edge Eloquent" ist eine Offline-Sprachdiktier-App, die gesprochene Sprache nicht nur transkribiert, sondern gleich in poliertes, grammatikalisch korrektes Schriftdeutsch (oder Englisch) umwandelt – und das ganz ohne Abonnement und ohne Internetverbindung.</p><h2>Was kann AI Edge Eloquent?</h2><p>Die App nutzt ein lokales KI-Modell, das direkt auf dem iPhone läuft. Wenn du sprichst, erkennt die App nicht nur die Wörter, sondern bereinigt auch umgangssprachliche Ausdrücke, Füllwörter und unvollständige Sätze. Das Ergebnis ist ein sauber formulierter Text, der direkt in E-Mails, Dokumente oder Notizen eingefügt werden kann.</p><h2><img src="/uploads/images/google-ai-edge-eloquent-app.webp" alt="Google AI Edge Eloquent App Screenshot">Keine Cloud, kein Abo</h2><p>Besonders hervorzuheben ist, dass AI Edge Eloquent vollständig offline funktioniert. Das bedeutet: Deine Spracheingaben verlassen das Gerät nicht, was einen erheblichen Datenschutzvorteil gegenüber cloudbasierten Diensten wie Siri, Google Assistant oder anderen Diktat-Apps darstellt. Die Verarbeitung geschieht lokal auf dem iPhone, was auch schnelle Reaktionszeiten ohne Netzwerkverzögerung ermöglicht.</p><p>Und im Gegensatz zu vielen KI-gestützten Apps ist AI Edge Eloquent kostenlos und erfordert kein monatliches Abonnement. Google positioniert die App als Teil der „AI Edge"-Initiative, die darauf abzielt, KI-Funktionen direkt auf Endgeräte zu bringen, anstatt sie in der Cloud zu betreiben.</p><h2>Technologie hinter der App</h2><p>Die App basiert auf Googles „AI Edge"-Framework, das speziell für die effiziente Ausführung von KI-Modellen auf mobiler Hardware entwickelt wurde. Das zugrunde liegende Sprachmodell ist für geringe Größe und niedrigen Energieverbrauch optimiert, ohne dabei wesentliche Qualitätseinbußen bei der Textbereinigung in Kauf zu nehmen.</p><p>Google zeigt damit, dass leistungsfähige KI nicht zwangsläufig die Cloud benötigt. Mit zunehmend leistungsstarken iPhone-Chips (wie dem A18 Pro in der iPhone-16-Reihe) werden solche lokalen KI-Anwendungen immer praxistauglicher.</p><h2>Verfügbarkeit und Fazit</h2><p>AI Edge Eloquent ist kostenlos im App Store erhältlich. Die App richtet sich an alle, die regelmäßig Texte diktieren – ob für berufliche E-Mails, schnelle Notizen oder längere Dokumente. Wer Wert auf Datenschutz legt und keine Lust auf ein weiteres Abo hat, sollte einen Blick auf diese App werfen. Eine Android-Version ist bislang nicht angekündigt.</p>        ]]></content:encoded>
        
                <media:content url="https://www.wiribu.de/uploads/images/google-ai-edge-eloquent-cover.webp" medium="image">
            <media:title type="html">Google AI Edge Eloquent: Offline-Diktat-App für iOS ohne Abo</media:title>
        </media:content>
            </item>
            <item>
        <title>Anthropic sichert sich Google TPU-Kapazitäten für 2027</title>
        <link>https://wiribu.de/anthropic-google-tpu-deal-2027</link>
        <pubDate>Tue, 07 Apr 2026 09:03:16 +0300</pubDate>
        <dc:creator><![CDATA[Wiribu | Tech Gaming News]]></dc:creator>
        <guid isPermaLink="true">https://wiribu.de/anthropic-google-tpu-deal-2027</guid>
        <description><![CDATA[
            <img src="https://www.wiribu.de/uploads/images/anthropic-google-tpu-deal.webp" alt="Anthropic sichert sich Google TPU-Kapazitäten für 2027" style="width:100%; max-width:600px; margin-bottom:10px;" /><br/>Anthropic hat eine Vereinbarung mit Google und Broadcom getroffen, um ab 2027 Zugang zu TPU-Kapazitäten der nächsten Generation zu erhalten – ein wichtiger Schritt für die KI-Infrastruktur des Claude-Herstellers.        ]]></description>
        <content:encoded><![CDATA[
            <img src="https://www.wiribu.de/uploads/images/anthropic-google-tpu-deal.webp" alt="Anthropic sichert sich Google TPU-Kapazitäten für 2027" /><br/><p>Anthropic hat eine bedeutende Vereinbarung mit Google und Broadcom getroffen: Ab 2027 soll das KI-Unternehmen Zugang zu nächster Generation TPU-Kapazitäten (Tensor Processing Units) erhalten. Die Vereinbarung markiert einen wichtigen strategischen Schritt für Anthropic, um seine leistungsintensiven KI-Modelle effizienter und skalierbarer zu betreiben.</p><h2>Was sind TPUs und warum sind sie wichtig?</h2><p>Tensor Processing Units sind spezialisierte Chips, die Google ursprünglich für das Training und die Ausführung von maschinellen Lernmodellen entwickelt hat. Im Vergleich zu herkömmlichen GPUs bieten TPUs bei bestimmten KI-Workloads deutlich höhere Rechenleistung bei geringerem Energieverbrauch. Für ein Unternehmen wie Anthropic, das hinter dem Claude-Chatbot steht, ist der Zugang zu solcher Hardware ein entscheidender Wettbewerbsvorteil.</p><h2><img src="/uploads/images/google-cloud-ai-infrastructure.webp" alt="Google KI-Infrastruktur">Details der Vereinbarung</h2><p>Die Partnerschaft umfasst nicht nur Google selbst, sondern auch Broadcom als weiteren Chiphersteller. Broadcom ist bekannt für seine Rolle bei der Entwicklung benutzerdefinierter ASIC-Chips (Application-Specific Integrated Circuits) für große Technologieunternehmen. Die Einbeziehung von Broadcom deutet darauf hin, dass es sich um maßgeschneiderte Hardwarelösungen handeln könnte, die speziell auf Anthropics Anforderungen zugeschnitten sind.</p><p>Der Start der neuen TPU-Kapazitäten ist für 2027 geplant. Das gibt Anthropic Zeit, seine Infrastruktur entsprechend zu planen und seine Modelle auf die neuen Hardware-Gegebenheiten vorzubereiten. Claude-Modelle, insbesondere die rechenintensiven Claude-3-Varianten, könnten von dieser verbesserten Hardware erheblich profitieren.</p><h2>Strategische Bedeutung für Anthropic</h2><p>Bislang hat Anthropic stark auf Amazon Web Services (AWS) und Googles Cloud-Infrastruktur gesetzt. Diese neue direkte Vereinbarung über Chip-Kapazitäten geht einen Schritt weiter: Statt nur Cloud-Rechenzeit zu mieten, sichert sich Anthropic nun dedizierte Hardware-Ressourcen. Das bedeutet mehr Kontrolle über die eigene KI-Infrastruktur und potenziell niedrigere langfristige Kosten.</p><p>In der aktuellen KI-Wettrüstung, bei der OpenAI, Google DeepMind, Meta und andere Unternehmen massiv in Rechenkapazitäten investieren, ist ein gesicherter Zugang zu modernster Hardware für Anthropic überlebenswichtig. Das Unternehmen hat zuletzt mehrere Milliarden Dollar an Investitionen eingesammelt, und ein Großteil dieser Mittel fließt in die teure Infrastruktur.</p><h2>Ausblick</h2><p>Mit dieser Vereinbarung positioniert sich Anthropic für die nächste Phase des KI-Wettrennens. Wenn die nächste TPU-Generation 2027 verfügbar wird, dürfte Anthropic zu den ersten Unternehmen gehören, die davon profitieren. Für Nutzer von Claude könnte das langfristig schnellere Antwortzeiten, leistungsfähigere Modelle und möglicherweise günstigere Preise bedeuten.</p>        ]]></content:encoded>
        
                <media:content url="https://www.wiribu.de/uploads/images/anthropic-google-tpu-deal.webp" medium="image">
            <media:title type="html">Anthropic sichert sich Google TPU-Kapazitäten für 2027</media:title>
        </media:content>
            </item>
            <item>
        <title>Meta Ray-Ban Brille trackt deine Ernährung: KI erkennt, was du isst</title>
        <link>https://wiribu.de/meta-ray-ban-brille-ernaehrung-tracking-ki</link>
        <pubDate>Mon, 06 Apr 2026 18:05:13 +0300</pubDate>
        <dc:creator><![CDATA[Wiribu | Tech Gaming News]]></dc:creator>
        <guid isPermaLink="true">https://wiribu.de/meta-ray-ban-brille-ernaehrung-tracking-ki</guid>
        <description><![CDATA[
            <img src="https://www.wiribu.de/uploads/images/meta-rayban-ernaehrung-featured.webp" alt="Meta Ray-Ban Brille trackt deine Ernährung: KI erkennt, was du isst" style="width:100%; max-width:600px; margin-bottom:10px;" /><br/>Metas smarte Ray-Ban-Brille bekommt ein neues KI-Feature: Die Kamera erkennt Mahlzeiten und erfasst automatisch Nährwerte. Das Ernährungstagebuch wird direkt in die Meta AI App integriert.        ]]></description>
        <content:encoded><![CDATA[
            <img src="https://www.wiribu.de/uploads/images/meta-rayban-ernaehrung-featured.webp" alt="Meta Ray-Ban Brille trackt deine Ernährung: KI erkennt, was du isst" /><br/><p>Metas smarte Brillen – darunter die bekannte <strong>Ray-Ban Meta</strong>-Serie – erhalten ein neues KI-Feature: Die Kamera in der Brille soll künftig erkennen, was der Träger isst, und automatisch Nährwertdaten erfassen. Ein kleiner Schritt für die Brille, ein großer für KI-Wearables.</p><h2>Essen fotografieren – ganz automatisch</h2><p>Meta hat angekündigt, dass die smarten Brillen demnächst in der Lage sein werden, <strong>Mahlzeiten zu erkennen und deren Nährwerte zu erfassen</strong> – per Sprachbefehl oder kurzer Aufnahme. Ein Ernährungstagebuch wird direkt in die Meta AI App integriert, wo alle erfassten Mahlzeiten geloggt werden.</p><h2>KI-gestützte Ernährungsempfehlungen</h2><p>Die gesammelten Daten sollen laut Meta genutzt werden, um die KI-Antworten zu personalisieren. Wer zum Beispiel fragt „Was soll ich essen, um mehr Energie zu haben?", bekommt eine Empfehlung, die auf dem persönlichen Ernährungsprotokoll basiert. Die Brille wird damit zu einem echten Gesundheits-Coach am Körper.</p><p><br></p><h2><img src="/uploads/images/meta-ray-ban-ki-wearable.webp" alt="Meta Ray-Ban KI Wearable">Automatische Erfassung in der Zukunft</h2><p>Noch interessanter: Meta deutet an, dass zukünftig die <strong>automatische Erkennung von Mahlzeiten</strong> möglich sein soll – ohne manuellen Befehl. Die Kamera würde im Alltag passiv erkennen, was und wie viel gegessen wird. Datenschutzfragen bleiben dabei freilich unbeantwortet.</p><h2>Mehr als eine Brille</h2><p>Mit solchen Gesundheits-Features positioniert Meta seine smarten Brillen immer stärker als Alltagsbegleiter, die weit über Musik und Anrufe hinausgehen. Die Ray-Ban Meta ist inzwischen das meistverkaufte KI-Wearable weltweit – und mit Ernährungs-Tracking könnte sich das noch beschleunigen.</p><p>Das Feature wird zunächst für die <strong>Ray-Ban Meta</strong>- und <strong>Oakley Meta</strong>-Brillen ausgerollt. Ein genaues Datum für die Verfügbarkeit nannte Meta noch nicht.</p>        ]]></content:encoded>
        
                <media:content url="https://www.wiribu.de/uploads/images/meta-rayban-ernaehrung-featured.webp" medium="image">
            <media:title type="html">Meta Ray-Ban Brille trackt deine Ernährung: KI erkennt, was du isst</media:title>
        </media:content>
            </item>
            <item>
        <title>Nothing plant KI-Brille für 2027 und KI-Earbuds für 2026 – Carl Pei gibt grünes Licht</title>
        <link>https://wiribu.de/nothing-ki-brille-2027-ki-earbuds-2026-carl-pei</link>
        <pubDate>Sat, 04 Apr 2026 20:32:53 +0300</pubDate>
        <dc:creator><![CDATA[Wiribu | Tech Gaming News]]></dc:creator>
        <guid isPermaLink="true">https://wiribu.de/nothing-ki-brille-2027-ki-earbuds-2026-carl-pei</guid>
        <description><![CDATA[
            <img src="https://www.wiribu.de/uploads/images/nothing-ai-smart-glasses-2027-featured.webp" alt="Nothing plant KI-Brille für 2027 und KI-Earbuds für 2026 – Carl Pei gibt grünes Licht" style="width:100%; max-width:600px; margin-bottom:10px;" /><br/>Nothing expandiert über Smartphones hinaus: CEO Carl Pei hat grünes Licht für KI-Brillen (2027) und KI-fähige Earbuds (2026) gegeben. Das Unternehmen tritt damit gegen Meta und Apple an.        ]]></description>
        <content:encoded><![CDATA[
            <img src="https://www.wiribu.de/uploads/images/nothing-ai-smart-glasses-2027-featured.webp" alt="Nothing plant KI-Brille für 2027 und KI-Earbuds für 2026 – Carl Pei gibt grünes Licht" /><br/><p><strong>Nothing</strong>, das von <strong>Carl Pei</strong> gegründete britische Tech-Unternehmen, wagt den nächsten großen Schritt: Laut einem Bericht von Bloomberg plant Nothing den Launch einer <strong>KI-Brille im ersten Halbjahr 2027</strong> sowie <strong>KI-fähiger Earbuds noch 2026</strong>. CEO Carl Pei, der dem Brillenprojekt anfangs skeptisch gegenüberstand, hat intern grünes Licht für eine Multi-Device-Strategie gegeben.</p><h2>Vom Smartphone-Hersteller zum KI-Wearable-Unternehmen</h2><p>Nothing ist bisher vor allem als Hersteller von Smartphones (Nothing Phone Series) und Audio-Hardware (Nothing Ear, CMF Buds) bekannt. Mit dem Einstieg in KI-Wearables vollzieht das Unternehmen einen strategischen Schwenk – ähnlich wie es Meta mit den Ray-Ban Smart Glasses oder Google mit seiner Glasses-Reihe getan hat.</p><p>Carl Pei soll Mitarbeitern mitgeteilt haben, dass Nothing in Zukunft nicht nur Smartphones verkaufen, sondern ein breites <strong>Multi-Device-Ökosystem</strong> aufbauen will.</p><p><img src="/uploads/images/meta-ray-ban-ki-wearable.webp" alt="KI Wearable Smart Glasses"></p><h2>Nothing KI-Brille: Was wir wissen</h2><p>Details zur KI-Brille sind noch spärlich, aber aus dem Bloomberg-Bericht geht hervor:</p><ul><li><strong>Launch-Zeitraum:</strong> Erste Jahreshälfte 2027</li><li><strong>Hardware:</strong> Kameras, Mikrofone und Lautsprecher – Verbindung über Smartphone und Cloud</li><li><strong>Zielpositionierung:</strong> Konkurrenz zu Meta Ray-Ban Smart Glasses, Even Realities und Rokid</li><li><strong>Design:</strong> Keine Details bekannt, aber Nothing ist für markantes, transparentes Design bekannt</li></ul><h2>KI-Earbuds noch 2026</h2><p>Vor der Brille kommen die <strong>KI-Earbuds</strong>: Noch im Jahr 2026 soll Nothing eine neue Earbuds-Generation launchen, die mit KI-Features aufgewertet wird. Welche Funktionen genau – ob Echtzeit-Übersetzung, Kontextbewusstsein, oder Assistentenfunktionen – ist bisher nicht bekannt.</p><h2>Starkes Wettbewerberfeld</h2><p>Mit seinem Einstieg in den Wearables-Markt tritt Nothing gegen bekannte Namen an:</p><ul><li><strong>Meta Ray-Ban Smart Glasses</strong> – derzeit Marktführer bei konsumorientierten KI-Brillen</li><li><strong>Apple AirPods Pro</strong> – dominanter Akteur im Premium-Audio-Segment</li><li><strong>Even Realities G1</strong> und <strong>Rokid AR</strong> – spezialisierte Alternativen mit AR-Fokus</li></ul><p>Nothings Stärke liegt in seiner treuen Community und einem unverwechselbaren Design-Ansatz, der sich vom Mainstream abhebt.</p><h2>Fazit</h2><p>Nothings Expansion in KI-Wearables ist ein mutiger, aber logischer Schritt. Die KI-Brille für 2027 ist noch weit weg, aber die KI-Earbuds für 2026 könnten ein konkreter erster Test für die neue Multi-Device-Strategie werden. Carl Peis Ambition, Nothing zu mehr als einem Smartphone-Hersteller zu machen, wird mit diesen Produkten eine wichtige Probe bekommen.</p>        ]]></content:encoded>
        
                <media:content url="https://www.wiribu.de/uploads/images/nothing-ai-smart-glasses-2027-featured.webp" medium="image">
            <media:title type="html">Nothing plant KI-Brille für 2027 und KI-Earbuds für 2026 – Carl Pei gibt grünes Licht</media:title>
        </media:content>
            </item>
            <item>
        <title>Samsung will Gemini AI auf 800 Millionen Geräte bringen – Verdopplung gegenüber 2025</title>
        <link>https://wiribu.de/samsung-gemini-ai-800-millionen-geraete-2026-galaxy-ai</link>
        <pubDate>Sat, 04 Apr 2026 20:30:33 +0300</pubDate>
        <dc:creator><![CDATA[Wiribu | Tech Gaming News]]></dc:creator>
        <guid isPermaLink="true">https://wiribu.de/samsung-gemini-ai-800-millionen-geraete-2026-galaxy-ai</guid>
        <description><![CDATA[
            <img src="https://www.wiribu.de/uploads/images/samsung-galaxy-s26-gemini-ai-featured.webp" alt="Samsung will Gemini AI auf 800 Millionen Geräte bringen – Verdopplung gegenüber 2025" style="width:100%; max-width:600px; margin-bottom:10px;" /><br/>Samsung plant, die Zahl der Galaxy AI-Geräte mit Google Gemini auf 800 Millionen zu verdoppeln – von Smartphones über Wearables bis hin zu Fernsehern und Haushaltsgeräten.        ]]></description>
        <content:encoded><![CDATA[
            <img src="https://www.wiribu.de/uploads/images/samsung-galaxy-s26-gemini-ai-featured.webp" alt="Samsung will Gemini AI auf 800 Millionen Geräte bringen – Verdopplung gegenüber 2025" /><br/><p>Samsung hat auf der <strong>CES 2026</strong> ein ehrgeiziges Ziel bekanntgegeben: Bis Ende 2026 sollen <strong>800 Millionen Geräte</strong> mit Galaxy AI – dem KI-Ökosystem auf Basis von Googles Gemini – ausgestattet sein. Das entspricht einer Verdopplung gegenüber 2025, als diese Zahl noch bei rund 400 Millionen Einheiten lag.</p><h2>„Connect Future" – KI überall, nicht nur im Smartphone</h2><p>Samsung-Co-CEO <strong>TM Roh</strong> erklärte die Strategie des Unternehmens unter dem Motto <strong>„Connect Future"</strong>: KI soll nicht länger nur eine Premium-Funktion in Flaggschiff-Smartphones sein, sondern ein unsichtbarer, allgegenwärtiger Layer in allen Samsung-Produkten werden.</p><p>Das schließt folgende Gerätekategorien ein:</p><ul><li><strong>Smartphones &amp; Tablets</strong> (Galaxy S, A und Z Series)</li><li><strong>Wearables</strong> (Galaxy Watch, Galaxy Buds)</li><li><strong>Fernseher</strong> (Samsung Smart TV, Neo QLED)</li><li><strong>Haushaltsgeräte</strong> (SmartThings-Ökosystem)</li></ul><p><img src="/uploads/images/gemini-app-automation-samsung.webp" alt="Gemini App Automation auf Samsung Galaxy S26"></p><h2>Gemini als zentrales KI-Gehirn</h2><p>Im Mittelpunkt der Galaxy AI-Strategie steht <strong>Google Gemini</strong>. Das Modell ermöglicht seit dem Galaxy S26 auch vollständige <strong>App-Automatisierung</strong>: Gemini kann eigenständig Aktionen in Apps wie Uber, DoorDash oder Grubhub ausführen – Bestellungen aufgeben, Fahrten buchen, Kalendereinträge anlegen. Die Ausführung erfolgt in einem sicheren virtuellen Fenster auf dem Gerät.</p><p>Mittels <strong>AppFunctions</strong> können Drittanbieter-Apps ihre Funktionen für Gemini zugänglich machen, was das Ökosystem kontinuierlich erweitert.</p><h2>Exynos 2600 als Hardware-Grundlage</h2><p>Die leistungsstarke KI-Verarbeitung wird durch Samsungs neuen <strong>Exynos 2600</strong>-Prozessor ermöglicht. Gefertigt im 2-nm-Gate-All-Around-Verfahren, soll der integrierte Neural Processing Unit (NPU) sechsmal schneller als sein Vorgänger sein – was On-Device-KI deutlich effizienter macht.</p><h2>Galaxy AI Markenbekanntheit bei 80 %</h2><p>Laut internen Samsung-Daten ist die Markenbekanntheit von „Galaxy AI" in nur einem Jahr von 30 auf <strong>80 Prozent</strong> gestiegen – ein bemerkenswerter Anstieg. Samsung ist damit eines der wenigen Unternehmen, denen es gelungen ist, KI-Features als eigenständige Marke zu etablieren.</p><h2>Herausforderung: Speicherchip-Engpass</h2><p>Die ambitionierten Pläne stoßen auf ein strukturelles Problem: Ein weltweiter Engpass bei <strong>Speicherchips</strong>, der durch die enorme Nachfrage von KI-Rechenzentren ausgelöst wird, verteuert die Produktion von Smartphones und Consumer Electronics. Ob Samsung seinen 800-Millionen-Geräteplan dennoch wie geplant umsetzt, bleibt abzuwarten.</p><h2>Fazit</h2><p>Samsungs Galaxy AI-Strategie ist eine der aggressivsten KI-Expansionen im Consumer-Markt. Wenn die 800-Millionen-Geräte-Marke erreicht wird, wäre Gemini auf mehr Endgeräten vertreten als in fast jedem anderen KI-Ökosystem weltweit.</p>        ]]></content:encoded>
        
                <media:content url="https://www.wiribu.de/uploads/images/samsung-galaxy-s26-gemini-ai-featured.webp" medium="image">
            <media:title type="html">Samsung will Gemini AI auf 800 Millionen Geräte bringen – Verdopplung gegenüber 2025</media:title>
        </media:content>
            </item>
            <item>
        <title>Google veröffentlicht offene Modelle von Gemma 4</title>
        <link>https://wiribu.de/google-veroffentlicht-offene-modelle-von-gemma-4</link>
        <pubDate>Fri, 03 Apr 2026 16:18:59 +0300</pubDate>
        <dc:creator><![CDATA[Wiribu | Tech Gaming News]]></dc:creator>
        <guid isPermaLink="true">https://wiribu.de/google-veroffentlicht-offene-modelle-von-gemma-4</guid>
        <description><![CDATA[
            <img src="https://www.wiribu.de/uploads/images/google-veroffentlicht-offene-modelle-von-gemma-4.webp" alt="Google veröffentlicht offene Modelle von Gemma 4" style="width:100%; max-width:600px; margin-bottom:10px;" /><br/>Google LLC legt mit der Veröffentlichung von Gemma 4, seiner bislang fortschrittlichsten „offenen“ Modellfamilie, die Messlatte für KI-Modelle mit offenem Gewicht noch höher.        ]]></description>
        <content:encoded><![CDATA[
            <img src="https://www.wiribu.de/uploads/images/google-veroffentlicht-offene-modelle-von-gemma-4.webp" alt="Google veröffentlicht offene Modelle von Gemma 4" /><br/><p>Mit der Einführung von <strong>Gemma 4</strong> hat Google eine neue Generation seiner offenen KI-Modelle unter dem Namen „Gemma“ vorgestellt. Demis Hassabis, Geschäftsführer von Google DeepMind, bestätigte diese Entwicklung am Donnerstag in einem Beitrag auf X.</p><p><br></p><p>Das Unternehmen bezeichnete <strong>Gemma 4 </strong>als sein bislang „leistungsfähigstes offenes Modell“. <a href="http://wiribu.de/google-fuhrt-die-ai-inbox-ein-um-e-mails-in-gmail-zu-organisieren" target="_blank">Google</a> veröffentlichte es in vier Varianten, die jeweils für unterschiedliche Leistungsstufen und Hardwareanforderungen ausgelegt sind: Effective 2B (E2B), Effective 4B (E4B), 26B Mixture of Experts (MoE) und 31B Dense.</p><p><br></p><h2>Technische Daten zu Gemma 4</h2><p><br></p><p>Die Gemma-4-Variante „Effective 2B“ (E2B) ist ein kompaktes Modell mit rund 2 Milliarden Parametern. „Effective 4B“ (E4B) ist eine etwas größere Version mit verbesserter Leistungsfähigkeit. Das 26B-„Mixture of Experts“-Modell (MoE) nutzt eine spezielle Architektur, und „31B Dense“ ist laut einem Blogbeitrag des Unternehmens die größte und leistungsstärkste Version der Produktreihe.</p><p><br></p><p>Parameter beziehen sich auf die Anzahl der einstellbaren Werte in einem Modell; im Allgemeinen ermöglichen mehr Parameter eine bessere Leistung, erfordern jedoch mehr Rechenleistung.</p><p><br></p><p><img src="https://wiribu.de/uploads/images/die-neuen-gemma-4-modelle-von-google-ermoglichen-komplexe-schlussfolgerungen-auf-geraten-mit-geringe.webp"></p><p><br></p><p>Die „Mixture of Experts“ (MoE)-Architektur ist eine Technik, bei der für jede Aufgabe nur ein Teil der Modellkomponenten aktiviert wird. Dies steigert die Effizienz, da der Rechenaufwand im Vergleich zu herkömmlichen „dichten“ Modellen, bei denen jedes Mal alle Parameter verwendet werden, reduziert wird.</p><p><br></p><h3>Funktionen von Gemma 4</h3><p><br></p><p>Das Modell <strong>Gemma 4 </strong>bietet Funktionen wie fortgeschrittenes logisches Denken, agentenbasierte Arbeitsabläufe, Programmierung und Unterstützung für über 140 Sprachen. Die Modelle sind zudem in der Lage, komplexe mathematische Probleme zu lösen und hochwertigen Code zu generieren, was sie zu potenziellen lokalen KI-Programmierassistenten macht.</p><p><br></p><p>Ein zentraler Schwerpunkt von <strong>Gemma 4 </strong>ist die Effizienz. Dank kleinerer und optimierter Modelle können Entwickler fortschrittliche <a href="http://wiribu.de/kategorie/ai" target="_blank">KI-Systeme</a> auf weniger leistungsstarker Hardware ausführen, darunter persönliche Workstations oder Edge-Geräte, anstatt auf große Rechenzentren angewiesen zu sein.</p><p><br></p><p>Dieser Ansatz soll laut Angaben des Unternehmens dazu beitragen, dass KI-Fähigkeiten auf „Spitzenniveau“ für einen größeren Kreis von Entwicklern zugänglicher werden.</p>        ]]></content:encoded>
        
                <media:content url="https://www.wiribu.de/uploads/images/google-veroffentlicht-offene-modelle-von-gemma-4.webp" medium="image">
            <media:title type="html">Google veröffentlicht offene Modelle von Gemma 4</media:title>
        </media:content>
            </item>
    
</channel>
</rss>
