Ir ao contido principal

Portal de participación

Volver

Sobre o borrador de normativa de uso da IA

H Hugo Herrador  •  29/04/2026  •  3 comentarios  • 

A UDC ven de facer público o borrador de normativa de uso da IA.

Creo que é interesante abrir un debate para facer achegas, pois esta normativa ten importantes implicacións para todos os membros da comunidade universitaria.

O primeiro no que me gustaría insistir é que o uso de modelos de linguaxe non debe en ningún caso ser unha obriga. Os membros da comunidade universitaria deberían ter dereito a non usar estos modelos de linguaxe, se consideran que non deben ou queren facelo (por exemplo, por motivos éticos ou por dúbidas sobre o tratamento que fan dos datos.)

Na redacción do texto queda en entredito a optatividade de uso destes modelos. Por exemplo, no preámbulo:

"A IA debe ser considerada unha ferramenta de gran utilidade [...]. Como tal, debería ser incorporada ó proceso de ensino-aprendizaxe"

Tamén no artigo 14 (principios) vólvese facer uso do verbo "deber":

"A IA pode e debe ser un aliado na investigación e transferencia".

Tamén se menciona en múltiples ocasións que existirán "ferramentas institucionalmente autorizadas", pero non se pon ningún tipo de requisitos a estas ferramentas. Isto deixa a porta aberta a que estas plataformas poidan ser os modelos de linguaxe comerciais das grandes empresas (OpenAI, Microsoft, Google...), adestrados de forma pouco respectuosa cos dereitos de autor e sen ningunha garantía de cumprimento das leis e principios de protección de datos.

No artigo 7:

"Deberanse empregar ferramentas institucionalmente autorizadas pola UDC, especialmente no relativo á IA xenerativa"

No artigo 20:

"Empregaranse preferentemente ferramentas de IA autorizadas pola Universidade."

No artigo 5:

"o tratamento de datos persoais mediante sistemas de IA, únicamente cando exista base xurídica adecuada, se respecte o principio de minimización e se empreguen ferramentas autorizadas [4][5]"

Este é especialmente problemático, pois permite que se suban datos persoais a estas "ferramentas autorizadas". Tendo en conta que non están reguladas condicións mínimas sobre as ferramentas para garantir a protección de datos, non penso que sexa adecuado permitir o tratamento de usos persoais coa IA.

No artigo 17:

[...] a UDC recomenda utilizar unha IA cerrada ou corporativa

Aquí, particularmente, úsanse os termos "cerrada" e "corporativa" referíndose á IA institucionalmente recomendada, o que é un erro.

No artigo 14:

[...] As IAs utilizadas para uso investigador serán preferentemente as corporativas.

De novo, volve utilizar o termo "corporativo" para referirse ás ferramentas autorizadas pola Universidade.

Ademais, creo que é importante dar unha opción a aquelas persoas que non queren usar IA. A normativa debe deixar clara a obrigatoriedade de dar un medio alternativo a aqueles estudiantes que non desexen utilizan IA nas actividades avaliables en que se suxira. Ademais, aquelen alumnos que o desexen deberían poder esixir que o seu traballo non se suba a plataformas de intelixencia artificial (incluindo, por exemplo, os "detectores de IA").

Por último, hai varios erros tipográficos e de redacción no texto:

No artigo 3 (definicións):

"Vixilancia automatizada: vixilancia de probas [...]"

Defínese o termo pero non se usa en todo o texto.

No artigo 25:

"O procedemento disciplinario dervado do uso [...]"

No preámbulo:

"consoancia co espírito da atividade universitária"

 

Agradeceríavos a todos a vosa colaboración, achegando o voso punto de vista sobre a normativa.

Comentarios (3)

Precisas iniciar sesión ou rexistrarte para comentares.
  • P

    Coincido co que comentas, e seica non se deberían poder empregar modelos para xerar texto, código ou imaxes. E só se deberían permitir empregar modelos completamente abertos, con acceso aos datos de entrenamento, e asegurándose de que todos están baixo licencias que permitan o seu uso (CC0, e semellantes).

    2 votos  | 
    2
    0
    Sen respostas
    • L

      Dito o anterior, penso que é positivo que se regule a obrigatoriedade de declarar o seu uso transparente, e os termos nos que isto está recollido parécenme axeitados (eu mesma usei uns parecidos nunha das miñas materias este cuadrimestre... aínda que con pouco éxito). Agora ben, a norma menciona en varias ocasións a posibilidade de que o estudantado non cumpra con esta transparencia, e remite á normativa de fraude académica. O que non se menciona son as posibles consecuencias para o propio profesorado de non declarar responsablemente ese uso. Está claro que se eu fago materiais docentes usando IAGen, debo revisalos e, en todo caso, asumo a responsabilidade de que conteñan erros, inconsistencias, incoherencias ou directamente falsedades, e tamén que non debo subir información privada ou corrixir exames con ela. Pero que significa "asumir esa responsabilidade" se o fago? Igual que co alumnado, debería remitirse ao marco normativo que me aplique nese caso, para telo presente.

      1 voto  | 
      1
      0
      Sen respostas
      • L

        Grazas por abrir un debate máis que necesario.

        Hai tantos aspectos que comentar que non sei moi ben por onde comezar, pero vouno facer coincidindo plenamente contigo no feito de que, sexa como for, a ordenación do uso da IAGen no contexto das actividades propias da UDC non pode pasar pola obrigatoriedade de uso en ningún caso. Hai moitos motivos polos que estas ferramentas deben ser tratadas co máximo coidado, e aos aspectos de propiedade intelectual e impacto medioambiental que comentas únense tamén os do impacto psicosocial. Sancionar unha norma que dea aparencia de respaldo ou apoio ao seu uso non pode facerse ignorando que, cando ese uso se estende a tarefas de tipo persoal se producen efectos sobre a capacidade de aceptar os erros e analizar criticamente os propios actos [1], algo que estou segura de que está nas competencias transversais de practicamente calquera titulación.

        [1] https://doi.org/10.1126/science.aec8352

        1 voto  | 
        1
        0
        Sen respostas