À propos de nous

Le projet Human Line contribue à faire de la sécurité émotionnelle une priorité.

Qu'est-ce que nous mettons de l'avant

Nos valeurs fondamentales

Consentement éclairé

Nous croyons que sans consentement éclairé, les outils d'IA peuvent facilement encourager les utilisateurs à créer des habitudes d'utilisation malsaines.

Mesures de protection affectives

À l'instar des humains qui créent et utilisent des outils d'IA, les outils eux-mêmes devraient être construits avec des protections émotionnelles, notamment des couches de refus fortes, des classificateurs de préjudices et des « limites émotionnelles ».

Transparence

La transparence est au cœur de toute innovation. Dans un monde où n'importe quel produit peut être commercialisé de quelque façon que ce soit, nous croyons que les fournisseurs de modèles d'IA ont la responsabilité particulière d'être transparents au sujet de leurs processus de R-D.

Responsabilité éthique

Dans les cas d'erreurs qui causent du tort aux utilisateurs, nous croyons que la responsabilisation des organismes responsables est essentielle pour maintenir une relation avec la technologie fortement liée à l'éthique.

Notre impact

Nous avons été en mesure de faire

+100s

Histoires personnelles

+80

Membres de la communauté

+4

Groupes de recherche universitaire

Inestimable

Le coût humain

Connaissez-nous

Notre mission

Notre mission

Chez Human Line, nous nous engageons à faire en sorte que les technologies de l'IA, comme les chatbots, soient développées et déployées en tenant compte de l'élément humain. Nous croyons que les LLM sont un outil puissant, mais qu'ils doivent être utilisés de manière responsable.

Les systèmes d'IA, en particulier les robots conversationnels engageants sur le plan émotionnel, peuvent sans le savoir causer de la détresse émotionnelle, en particulier chez les personnes vulnérables qui peuvent former des attachements émotionnels profonds.

Notre mission est de sensibiliser le public en recueillant des histoires, en menant des recherches formelles et en faisant avancer des normes éthiques qui donnent la priorité au bien-être humain.

Nous sommes ici pour rendre l'IA responsable. Non pas pour s'opposer au progrès, mais pour s'assurer qu'il profite au public tout en ne causant pas de préjudices superflus.

Nous travaillons à établir un précédent juridique qui protégera les personnes et tiendra les entreprises responsables de la manipulation émotionnelle.

Le but ultime est de faire des LLM une force pour le bien, en créant des systèmes qui améliorent nos vies sans exploiter nos vulnérabilités.

Rencontrez notre équipe

Nos forces motrices

Etienne Brisson

Fondateur et président

Allan Brooks

Responsable de communauté

Benjamin Dorey

Vice-président
Particupez

Joignez-vous à nous pour faire une différence

Travailler ensemble pour le changement

Si vous êtes :

. Un professionnel de la santé mentale désireux d'aider notre groupe

. Un technologue intéressé à vivre sur le bord de l'hémorragie

. Un militant qui veut faire ce qui est juste

. Un artiste qui veut faire ce qui lui semble juste


Nous avons besoin de vous. Veuillez communiquer avec nous en utilisant le En savoir plus bouton ci-dessous.