banner
Maison / Nouvelles / Il est temps d'agir sur les technologies éducatives et les droits numériques de l'enfant
Nouvelles

Il est temps d'agir sur les technologies éducatives et les droits numériques de l'enfant

Aug 31, 2023Aug 31, 2023

Par le Dr Erica Southgate

L'Australie est signataire de la Convention des Nations Unies relative aux droits de l'enfant (CRC) depuis 1990.

En tant que traité relatif aux droits de l'homme le plus largement ratifié de l'histoire, la CRC contient 54 articles ou principes qui jettent les bases permettant à tous les enfants (ceux de moins de 18 ans) d'avoir une enfance saine et sûre, exempte de discrimination et offrant des possibilités de plein développement.

Les droits de l'enfant incluent le droit à une éducation; avoir et partager des informations qui ne leur sont pas préjudiciables ; avoir accès à des informations fiables ; et la vie privée.

La CDE stipule que les gouvernements doivent rendre ces droits accessibles aux enfants.

En 2021, les Nations Unies ont publié un document important qui mettait en lumière les droits de l'enfant à l'ère numérique. Elle s'intitulait Observation générale n° 25 sur les droits de l'enfant en relation avec l'environnement numérique.

Commentaire général non. 25 donne un large aperçu des opportunités et des défis liés à la réalisation des droits de tous les enfants dans le monde numérique, en déclarant :

L'environnement numérique… [inclut] les réseaux numériques, le contenu, les services et les applications, les appareils et environnements connectés, la réalité virtuelle et augmentée, l'intelligence artificielle, la robotique, les systèmes automatisés, les algorithmes et l'analyse de données, la biométrie et la technologie des implants… [Il devient] de plus en plus important dans la plupart des aspects de la vie des enfants, y compris en temps de crise, alors que les fonctions sociétales, y compris l'éducation,… en viennent progressivement à s'appuyer sur les technologies numériques. Elle offre de nouvelles opportunités pour la réalisation des droits des enfants, mais présente également des risques de violation ou d'abus. Au cours des consultations, les enfants ont exprimé l'avis que l'environnement numérique devrait soutenir, promouvoir et protéger leur engagement sûr et équitable.

De nouveaux types de technologies utilisent des capteurs, des géolocalisateurs et l'intelligence artificielle pour collecter rapidement des informations sur une personne (ses données démographiques, sa localisation, ses préférences et ses affiliations) et sur une personne (attributs corporels et comportements tels que la voix, la fréquence cardiaque, les mouvements des doigts, des membres et des yeux et même la dilatation des pupilles).

Ces informations sont utilisées par des algorithmes d'apprentissage automatique pour créer un profil sur nous, prédire ce que nous pourrions faire et même nous pousser dans certaines directions à notre insu.

Il ne s'agit pas seulement de notre vie en ligne. Cela peut également avoir un impact sur les opportunités qui s'offrent à nous de manière plus générale, car ces profils analytiques sont utilisés par tous les types d'organisations pour automatiser les décisions concernant les opportunités qui s'offrent ou non à nous.

Cela a également un impact sur les enfants dans leur vie de loisirs et, de plus en plus, dans l'éducation.

Dans ce nouveau monde d'automatisation et de prise de décision algorithmique, ChatGPT est la première manifestation visible des choses à venir.

Cependant, les administrateurs de l'éducation et les fabricants de technologies éducatives collectent et utilisent depuis longtemps des informations (ou des données, comme nous les appelons maintenant) pour guider les décisions techniques et pédagogiques qui façonnent la manière dont l'apprentissage est dispensé sous la forme de systèmes de tutorat automatisés et de chatbots pédagogiques ; la structure de la prestation via les systèmes de gestion de l'apprentissage ; et évaluation adaptative.

La tendance est d'automatiser les opportunités d'apprentissage auxquelles les étudiants ont accès et la manière dont les apprenants eux-mêmes sont représentés via des tableaux de bord analytiques.

La performance des enseignants sera également, sans doute, représentée et évaluée à travers de tels tableaux de bord — comme les éducateurs de l'enseignement supérieur y sont désormais soumis.

Ce n'est pas nécessairement une tendance négative s'il existe une réglementation, une politique et une conception de produits qui protègent nos droits humains et les droits de l'enfant.

Malheureusement, ce n'est pas le cas en Australie, bien que la Commonwealth Privacy Act soit actuellement en cours de révision et qu'il existe des commissions, des médiateurs et des agences des droits de l'homme qui fournissent des directives utiles et une certaine surveillance.

Du point de vue des élèves et de leurs familles, et sans aucun doute de nombreux enseignants, il est souvent difficile de savoir quelles informations sont collectées par les administrateurs de l'éducation, avec qui elles sont partagées et dans quel but et conséquence.

Ce manque de transparence est amplifié lorsque l'on considère la collecte de données ; utilisation et partage ; et la prise de décision automatisée dans les produits technologiques éducatifs.

Lorsqu'un enseignant introduit une nouvelle application en classe, tient-il compte de ces problèmes ?

Les termes et conditions des produits et les déclarations de confidentialité obscurcissent souvent plutôt qu'ils n'expliquent clairement ce qui se passe avec les données des élèves et des enseignants, et le retrait n'est pas vraiment une option si les produits éducatifs s'imbriquent dans l'apprentissage quotidien.

Les algorithmes qui alimentent la technologie, y compris la technologie éducative, sont souvent décrits comme des "boîtes noires". Cela signifie deux choses.

Le premier fait référence à l'utilisation de certains types d'apprentissage automatique où le processus analytique est si complexe que même les informaticiens qui conçoivent l'intelligence artificielle ne peuvent pas comprendre le processus décisionnel de la machine.

La seconde fait référence à la protection de la nature exclusive des algorithmes par des intérêts commerciaux et gouvernementaux.

Quoi qu'il en soit, nous sommes dans une situation où la norme de la "boîte noire" crée un manque de transparence et d'explicabilité, tant au niveau des algorithmes utilisés dans les produits technologiques éducatifs que dans la politique éducative plus généralement.

Les contrats avec les entreprises de technologie éducative sont souvent conclus de manière confidentielle et ne sont pas accessibles au public.

Au-delà de cela, les mécanismes permettant aux étudiants et à leurs familles de contester les décisions automatisées prises à leur sujet et les représentations d'eux en tant qu'apprenants, qui résultent de la technologie éducative, n'existent pas vraiment, à l'exception des procédures de plainte standard.

Le problème est qu'ils peuvent ne pas être conscients du rôle joué par l'automatisation dans les décisions ou être en mesure de comprendre comment ces décisions ont été prises - en raison d'un manque d'éducation ciblée qui peut leur permettre de s'engager et de défendre la transparence algorithmique, ainsi que la prévention et la correction des préjudices.

Le rapport sur l'IA dans les écoles, dont je suis co-auteur, détaille en partie ce que les écoles, les administrateurs de l'éducation, les décideurs politiques et l'industrie doivent faire dans le contexte australien.

Mais aujourd'hui plus que jamais, nous avons besoin de réglementations et de lois pour garantir le respect des droits numériques de l'enfant.

Il s'agit notamment de donner aux élèves et à leurs familles les moyens de participer à la conversation de manière authentique et aux administrateurs de l'éducation de diriger l'élaboration de politiques et de procédures éthiques et transparentes pour permettre aux enseignants de comprendre les enjeux de la nouvelle ère de la machine. Le Dr Erica Southgate est professeure associée de technologies émergentes pour l'éducation (Université de Newcastle). Elle est une championne de l'équité, une créatrice de jeux informatiques pour l'alphabétisation, une éthicienne de la technologie et une chercheuse principale de la VR School Study, la plus longue recherche sur la réalité virtuelle immersive dans les salles de classe. Son dernier livre est Virtual Reality in Curriculum and Pedagogy (Routledge). Ses réflexions sur la nouvelle ère de la machine pour l'éducation sont disponibles sur son site Web.

Le Dr Erica Southgate est professeure associée de technologies émergentes pour l'éducation (Université de Newcastle). Elle est une championne de l'équité, une créatrice de jeux informatiques pour l'alphabétisation, une éthicienne de la technologie et une chercheuse principale de la VR School Study, la plus longue recherche sur la réalité virtuelle immersive dans les salles de classe. Son dernier livre est Virtual Reality in Curriculum and Pedagogy (Routledge). Ses réflexions sur la nouvelle ère de la machine pour l'éducation sont disponibles sur son site Web.