Por John Hughes – Revelaciones sobre la inteligencia artificial, o: ¡Cambio de tono!
Documento original: Disclosures on artificial intelligence, or: tone shift! [16/6/2025]
La Ontario Securities Commission (OSC) recientemente publicó una investigación realizada por el personal que analiza la frecuencia y el sentimiento de las referencias, en sus revelaciones financieras, que los emisores canadienses que cotizan en bolsa realizan sobre la inteligencia artificial (IA).
Aquí está como el boletín de prensa de la OSC la resumió:
El personal de la OSC analizó los registros del Análisis y discusión de la administración [Management Discussion and Analysis (MD&A)] de emisores del S&P/TSX Composite Index durante un período de 10 años. El estudio exploratorio también le proporcionó al personal de la OSC una oportunidad para probar nuevos modelos de lenguaje grandes [large language models (LLMs)] para el análisis de sentimientos.
La investigación exploratoria reveló tres hallazgos clave:
1. Menciones incrementadas de la IA: La OSC observó un auge importante en el número de emisores que mencionan la IA en sus MD&A, reflejando la creciente importancia e integración de las tecnologías de la IA a través de varios sectores.
2. Cambio de tono: Los registros del año 2024 marcan un punto de inflexión en el tono general usado por los emisores para discutir la IA. Previamente la mayoría de los emisores que discutieron la IA tuvieron un sentimiento positivo general, sin embargo, junto con más emisores mencionando la IA, ha habido un incremento importante en el sentimiento negativo, señalando un punto de vista más balanceado de los riesgos y oportunidades de la IA.
3. Sentimientos divergentes: Emisores en los sectores de finanzas e información muestran una divergencia distintiva en el sentimiento comparado con quienes pertenecen a otras industrias. Si bien los sectores de finanzas e información mantienen una perspectiva más positiva sobre la IA, otras industrias de manera creciente son cautelosas.
Tal y como se señala arriba, uno de los aspectos más interesantes del ejercicio es que hizo uso de la IA:
le preguntamos a OpenAI’s GPT-4o mini – una de las LLM que alimenta ChatGPT – que clasifique el texto que rodea las menciones que los emisores hacen de la IA ya sea como positivo, negativo o neutral. La clasificación que realiza el modelo no es perfecta, pero GPT-4o mini se desempeñó mejor que los otros modelos de análisis de sentimiento más tradicionales que probamos: la clasificación del sentimiento que realizó GPT-4o mini se emparejó con la clasificación que realizaron nuestros investigadores en alrededor 80% del texto en nuestra muestra de prueba … Otra advertencia es que el modelo solo puede analizar el texto que le es proporcionado, potencialmente perdiendo contexto útil incluido en otras partes de un registro.
El documento señala que la OSC y otros reguladores “están explorando cómo las herramientas de la IA pueden mejorar el trabajo regulatorio, por ejemplo, mediante apoyar investigaciones que hacen forzoso el cumplimiento, facilitando las revelaciones de la revelación, y la investigación complementaria”. Y por supuesto sería una tontería que no lo hicieran. Sin embargo, hay un descontento importante entre tal innovación progresiva y una mentalidad anclada-en-el-pasado que de manera neurótica se preocupa por el contenido preciso de las viejas revelaciones lineales. Por ejemplo, tal y como abordamos aquí (y quizás contribuyendo de alguna manera a las revelaciones más balanceadas observadas arriba), los Canadian Securities Administrators recientemente han abordado esta área en el más reciente reporte sobre su Continuous Disclosure Review Program [Programa continuo de revisión de la revelación]:
Los emisores que adopten tecnología nueva necesitarán considerar si se necesitan revelaciones relacionadas con el uso y variedad de los cambiantes riesgos asociados con la nueva tecnología. Por ejemplo, si un emisor comienza a usar sistemas de inteligencia artificial (IA) en sus ofertas de productos o servicios, el emisor solo debe revelar el uso de los sistemas de IA con una base razonable para hacerlo, de otra manera tal revelación sería excesivamente promocional… Los emisores deben considerar sus obligaciones de revelación en relación con la confianza que el emisor pone en la IA y la potencial exposición a riesgos materiales sobre una base específica-de-la-entidad. Nosotros esperamos que los inversionistas generalmente considerarán la siguiente información material: la fuente y los proveedores de los datos que cada sistema de IA usa para realizar sus funciones, ya sea que el sistema de IA usado por el emisor esté siendo desarrollado por el emisor o suministrado por un tercero, el impacto que el uso, desarrollo o dependencia de los sistemas de IA es probable que tenga en los negocios del emisor, los resultados de sus operaciones y su condición financiera, si ha habido cualesquiera incidentes donde el uso del sistema de IA haya planteado cualesquiera problemas regulatorios, éticos o legales, y cualesquiera otras preocupaciones que surjan con la adopción de los sistemas de IA. Debe proporcionarse revelación balanceada que incluya una discusión de los beneficios y riesgos para usar los sistemas de IA…
Puede surgir la pregunta de si cuando la OSC cita la IA como un contribuyente a su reciente investigación no es en sí misma “excesivamente proporcional”, dada la modesta importancia de esos hallazgos. Pero, de cualquier modo, el reporte señala que el contenido de las menciones negativas “generalmente referidas a los riesgos que podrían variar desde, por ejemplo, las consideraciones acerca del riesgo de que los competidores adopten la IA a un ritmo más rápido, hasta las preocupaciones alrededor de la complejidad de la IA, los riesgos de seguridad y si las herramientas funcionan como se tiene la intención que lo hagan”. La implicación parece ser que las compañías se sienten como que están siendo empujadas a un mundo en-forma-de-IA, sea que quieran o no, con los reguladores de acuerdo con ello enmendando su enfoque y su centro de atención. Habiendo dicho ello, innovaciones pasadas tales como XBRL ascendieron a mucho menos de lo anticipado, y parecía que no hace mucho tiempo estábamos ingresando en una nueva era de revelación obligatoria de la sostenibilidad, mientras que ahora, bueno, no es así. Quizás la IA será diferente, y los reguladores se verán obligados a ir más allá de lo que actualmente puedan visualizar…
Las opiniones expresadas son solamente las del autor.
Esta traducción no ha sido revisada ni aprobada por el autor.