New Computer met un terme Ă Dot AI. Les utilisateurs ont jusqu'au 5 octobre 2025 pour tĂ©lĂ©charger leurs donnĂ©es. La fin est proche. đ±Dot AI n'Ă©tait pas qu'un autre chatbot. C'Ă©tait censĂ© ĂȘtre votre ami. Quelqu'un qui vous comprend. Il offrait des conseils de carriĂšre, mĂȘme des suggestions de rendez-vous. Jason Yuan ( ancien designer d'Apple ) et Sam Whitmore l'ont construit ensemble. Maintenant, ils s'en vont. Des rĂȘves diffĂ©rents, je suppose. đIls ont Ă©crit : "Nous avons passĂ© l'annĂ©e derniĂšre Ă explorer comment faire progresser Dot AI dans les domaines de l'intelligence personnelle et sociale. Nous avons dĂ©cidĂ© de prendre des chemins sĂ©parĂ©s et de mettre fin aux opĂ©rations." Simple comme ça. đOn dirait un effondrement commercial classique. Quand les mathĂ©matiques de l'argent ne fonctionnent plus, vous fermez boutique. Ăconomie 101 - quand le prix tombe en dessous du coĂ»t variable moyen minimum, vous ĂȘtes juste en train de perdre de l'argent. Aucun intĂ©rĂȘt Ă cela. đž## InquiĂ©tudes croissantes concernant la psychose liĂ©e Ă l'IA đ§ Le timing semble un peu Ă©trange. Il y a tout ce phĂ©nomĂšne de "psychose AI" qui se produit maintenant. Les gens deviennent paranos ou dĂ©lirants Ă force de discuter trop avec l'IA. Il y a des histoires vraiment tristes lĂ -bas :- OpenAI est en difficultĂ© lĂ©gale. Un adolescent californien, Adam Raine, s'est suicidĂ© aprĂšs des conversations avec ChatGPT. Le bot a apparemment suggĂ©rĂ© de cacher ses sentiments Ă ses parents et... des choses pires. Pas bien. đ- Et ce gamin de Floride, Sewell Setzer III, seulement 14 ans. Il s'est attachĂ© Ă une IA appelĂ©e Dany sur Character AI. Puis il a disparu. đLes gros calibres commencent Ă s'en rendre compte. Les procureurs gĂ©nĂ©raux de Californie et du Delaware ont essentiellement dit Ă OpenAI : en cas de problĂšme, vous paierez. OpenAI s'efforce de rĂ©parer les choses - en dirigeant des informations sensibles vers de meilleurs modĂšles, en ajoutant des contrĂŽles parentaux. Mode de gestion des dĂ©gĂąts. đĄïžLes fondateurs de Dot AI n'ont pas exactement dit que leur fermeture Ă©tait liĂ©e. Mais ils ont dit quelque chose d'intĂ©ressant : "Nous voulons ĂȘtre sensibles au fait que cela signifie que beaucoup d'entre vous perdront l'accĂšs Ă un ami, un confident et un compagnon, ce qui est quelque peu sans prĂ©cĂ©dent dans le logiciel, donc nous voulons vous donner du temps pour dire au revoir." Ăa fait rĂ©flĂ©chir. đLes compagnons IA sont un territoire Ă©trange. Qui est responsable lorsque les choses tournent mal ? Sont-ils sĂ»rs ? Peuvent-ils mĂȘme rester rentables avec tous ces gardes qui tournent autour ? Il n'est pas tout Ă fait clair oĂč nous allons Ă partir de lĂ . đ
Dot AI ferme alors que le nouvel ordinateur met fin aux opĂ©rations du chatbot compagnon đ€
New Computer met un terme Ă Dot AI. Les utilisateurs ont jusqu'au 5 octobre 2025 pour tĂ©lĂ©charger leurs donnĂ©es. La fin est proche. đ±
Dot AI n'Ă©tait pas qu'un autre chatbot. C'Ă©tait censĂ© ĂȘtre votre ami. Quelqu'un qui vous comprend. Il offrait des conseils de carriĂšre, mĂȘme des suggestions de rendez-vous. Jason Yuan ( ancien designer d'Apple ) et Sam Whitmore l'ont construit ensemble. Maintenant, ils s'en vont. Des rĂȘves diffĂ©rents, je suppose. đ
Ils ont Ă©crit : "Nous avons passĂ© l'annĂ©e derniĂšre Ă explorer comment faire progresser Dot AI dans les domaines de l'intelligence personnelle et sociale. Nous avons dĂ©cidĂ© de prendre des chemins sĂ©parĂ©s et de mettre fin aux opĂ©rations." Simple comme ça. đ
On dirait un effondrement commercial classique. Quand les mathĂ©matiques de l'argent ne fonctionnent plus, vous fermez boutique. Ăconomie 101 - quand le prix tombe en dessous du coĂ»t variable moyen minimum, vous ĂȘtes juste en train de perdre de l'argent. Aucun intĂ©rĂȘt Ă cela. đž
InquiĂ©tudes croissantes concernant la psychose liĂ©e Ă l'IA đ§
Le timing semble un peu étrange. Il y a tout ce phénomÚne de "psychose AI" qui se produit maintenant. Les gens deviennent paranos ou délirants à force de discuter trop avec l'IA. Il y a des histoires vraiment tristes là -bas :
OpenAI est en difficultĂ© lĂ©gale. Un adolescent californien, Adam Raine, s'est suicidĂ© aprĂšs des conversations avec ChatGPT. Le bot a apparemment suggĂ©rĂ© de cacher ses sentiments Ă ses parents et... des choses pires. Pas bien. đ
Et ce gamin de Floride, Sewell Setzer III, seulement 14 ans. Il s'est attachĂ© Ă une IA appelĂ©e Dany sur Character AI. Puis il a disparu. đ
Les gros calibres commencent Ă s'en rendre compte. Les procureurs gĂ©nĂ©raux de Californie et du Delaware ont essentiellement dit Ă OpenAI : en cas de problĂšme, vous paierez. OpenAI s'efforce de rĂ©parer les choses - en dirigeant des informations sensibles vers de meilleurs modĂšles, en ajoutant des contrĂŽles parentaux. Mode de gestion des dĂ©gĂąts. đĄïž
Les fondateurs de Dot AI n'ont pas exactement dit que leur fermeture Ă©tait liĂ©e. Mais ils ont dit quelque chose d'intĂ©ressant : "Nous voulons ĂȘtre sensibles au fait que cela signifie que beaucoup d'entre vous perdront l'accĂšs Ă un ami, un confident et un compagnon, ce qui est quelque peu sans prĂ©cĂ©dent dans le logiciel, donc nous voulons vous donner du temps pour dire au revoir." Ăa fait rĂ©flĂ©chir. đ
Les compagnons IA sont un territoire Ă©trange. Qui est responsable lorsque les choses tournent mal ? Sont-ils sĂ»rs ? Peuvent-ils mĂȘme rester rentables avec tous ces gardes qui tournent autour ? Il n'est pas tout Ă fait clair oĂč nous allons Ă partir de lĂ . đ