Bienvenido al Samuel’Newsletter. Gracias a los nuevos suscriptores que se están vinculando cada semana. Seguimos progresando. Estoy activando mi blog SamuelMantilla.com, para que el lector pueda escoger según sus preferencias.
Siéntase cómodo de comentar los distintos artículos y reenviárselos a sus amigos y relacionados.
Por John Hughes – Reporte de revelación continua de los CSA, o: ¡Problemas modernos!
Documento original: The CSA’s continuous disclosure report, or: modern problems! [19-11-2024]
Los Canadian Securities Administrators (CSA) [Administradores de valores canadienses] recientemente publicaron un reporte bienal sobre su Continuous Disclosure Review Program [Programa de revisión de la revelación continua], proporcionando una vista de conjunto de los resultados y resaltando los hallazgos y resultados clave durante los últimos dos años fiscales.
La mayor parte de los contenidos son familiares (algunos de ellos, como “los emisores no proporcionaron detalles específicos-del-emisor o suficiente información contextual para permitir que los inversionistas entiendan la liquidez y los recursos de capital del emisor”, han existido durante décadas), pero aquí hay algo nuevo:
Los emisores que adopten nueva tecnología necesitarán considerar si se necesitan revelaciones relacionadas con el uso y la variedad de los riesgos cambiantes asociados con la nueva tecnología. Por ejemplo, si un emisor comienza a usar un sistema de inteligencia artificial (IA) en sus ofertas de producto o servicio, el emisor solo debe revelar el uso de los sistemas de IA con una base razonable para hacerlo, de otra manera tal revelación sería excesivamente promocional… Un emisor debe revelar cómo define la IA en sus ofertas de producto o servicio para permitir que un inversionista entienda qué significa el emisor cuando se refiere a IA. Un sistema de IA es un sistema basado-en-máquina que, para objetivos explícitos o implícitos, infiere, a partir del input que recibe, cómo generar outputs tales como predicciones, contenido, recomendaciones, o decisiones que puedan influir en los entornos físico o virtual. Los diferentes sistemas de IA varían en sus niveles de autonomía y adaptabilidad después del despliegue. Los emisores deben considerar sus obligaciones de revelación en relación con la dependencia que el emisor tiene respecto de la IA y la potencial exposición ante riesgos materiales sobre una base específica-de-la-entidad. Nosotros esperamos que los inversionistas generalmente considerarán la siguiente información material: la fuente y los proveedores de los datos que cada sistema de IA usa en orden a realizar sus funciones, si el sistema de IA usado por el emisor está siendo desarrollado por el emisor o suministrado por un tercero, el impacto que el uso, desarrollo o dependencia respecto de los sistemas de IA es probable que tengan en el negocio del emisor, los resultados de las operaciones y la condición financiera, si ha habido cualesquiera incidentes donde el uso del sistema de IA haya planteado cualesquiera problemas regulatorios, éticos o legales, y cualesquiera otras preocupaciones que surjan con la adopción de los sistemas de IA. Deben ser proporcionadas revelaciones balanceadas que incluyan una discusión de los beneficios y riesgos del uso de los sistemas de IA. A los emisores también se les recuerda que deben establecer estructuras claras de gobierno, que incluyan las relacionadas con accountability, administración del riesgo, y vigilancia con relación al uso de la IA en sus negocios. La orientación precedente se basa en los existentes requerimientos regulatorios de valores y no crea ningunos requerimientos legales nuevos ni modifica algunos.
El trabalenguas de ese parágrafo (de lejos el más largo del documento) podría sugerir que fue adicionado en una etapa tardía para abordar el comentario de revisión de alguien (se lee más bien como si hubiera sido generado-por-IA): aún así, es una alerta intrigante. El comentario de que el emisor “el emisor solo debe revelar el uso de los sistemas de IA con una base razonable para hacerlo, de otra manera tal revelación sería excesivamente promocional” sugiere que los CSA prevén una especie de “tren de IA” – por ejemplo, un emisor podría pensar que puede mejorar su imagen con algunas referencias vagas al uso de la IA para mejorar sus líneas de producto, estrategias de mercadeo, y similares. El documento proporciona ejemplos (aparentemente todos tomados de la misma entidad del mundo real) que incluyen:
La compañía usa la tecnología de IA más avanzada.
El almacén de la compañía alberga la robótica de IA más avanzada.
La compañía usa IA para resolver problemas mundiales.
El uso que la compañía hace de la IA moderniza los procesos de negocio de la compañía y generará disrupción en la industria en la cual opera.
Es difícil no tener un poco de admiración, a regañadientes, para una compañía que descaradamente afirmara estar “resolviendo problemas mundiales”, especialmente cuando nos dicen que solo había generado ingresos ordinarios nominales provenientes de sus actividades de operación. De todos modos, una desventaja de tal centro de atención puesto en la IA es que puede empujar a que los emisores y sus asesores proporcionen revelación relacionada-con-la-IA que de alguna manera sea desproporcionada respecto de su verdadera importancia relativa, aunque esté muy cargada de salvedades y precauciones.
El documento también aborda la siempre cambiante área del “lavado verde”, proporcionando unos pocos ejemplos:
la revelación acerca del objetivo para la transición hacia cero emisiones netas puede ser engañosa si el emisor no señala qué se incluye en su objetivo de cero emisiones netas y si el emisor no tiene un plan creíble para lograr tal objetivo;
la revelación que reivindica que un producto o servicio material es “amigable” o en “cumplimiento” con ESG dentro de los estándares de la industria puede ser engañosa sin revelación adjunta que identifique los estándares de la industria, los factores particulares considerados y cómo son medidos y evaluados.
Aconseja a los emisores que:
tengan cuidado al usar términos amplios (tales como ESG, sostenibilidad, etc.) y, si los usan, para evitar engañar a los inversionistas, generalmente esperaríamos detalles respecto de qué se entiende por ellos, qué factores se incluyen y cómo esos factores son sopesados y priorizados. Por ejemplo, los inversionistas pueden confundir las afirmaciones de un emisor respecto de metas relacionadas-con-sostenibilidad con las relacionadas con cambio-climático y ambiciones de cero-emisiones-netas. Las metas relacionadas-con-sostenibilidad pueden ser de alcance más amplio, por ejemplo, priorizar solo ciertos objetivos sociales. De igual manera, las metas relacionadas-con-el-clima pueden incluir actividades de adaptación al cambio-climático que puedan no tener reducción correspondiente en el output de las emisiones. Como esas metas pueden tener distintos objetivos con distintos alcances y outcomes, los emisores deben asegurar que claramente definen los parámetros de esos objetivos para mitigar cualquier potencial confusión entre ellos.
Casi hace que Ud. extrañe los viejos tiempos, cuando la cuestión acerca de la revelación de la liquidez en el MD&A era tan complicada como era posible…
Las opiniones expresadas son solamente las del autor.
Esta traducción no ha sido revisada ni aprobada por el autor.