L'IA change la façon dont nous nous connectons et établissons des relations. Le projet Human Line contribue à faire de la sécurité émotionnelle et du consentement éclairé une priorité.
Chez Human Line, nous nous engageons à faire en sorte que les technologies de l'IA, comme les chatbots, soient développées et déployées en tenant compte de l'élément humain. Les LLM sont des outils puissants, et grâce à l'éducation et au soutien, les utilisateurs peuvent acquérir de nouvelles compétences et connaissances tout en restant intacts sur le plan émotionnel.
Au cours des 30 dernières années, l'invention d'internet et l'accélération de l'innovation ont eu un coût humain considérable. Les entreprises technologiques ne tiennent pas compte de ce coût dans leur prise de décision. Il en résulte des produits numériques qui entraînent les utilisateurs vers une utilisation dangereuse plus rapidement qu'ils ne peuvent s'adapter au changement.
Nous sommes un groupe de professionnels interdisciplinaires de la technologie, du journalisme, des arts et du milieu universitaire qui veulent faire en sorte que l'avenir soit humain. Grâce au soutien, à l'éducation et à la recherche, nous croyons qu'il est important de permettre la transformation des utilisateurs d'IA en intendants responsables de notre avenir.
Nous recueillons des histoires anonymes pour enquêter sur les dommages émotionnels causés par les plateformes d'IA comme Replika, ChatGPT et Character.AI.
Votre voix peut nous aider à tenir les entreprises responsables et à prévenir les préjudices futurs.