CitiGroup, Bank of America, Deutsche Bank, Goldman Sachs y Wells Fargo han restringido a sus empleados el uso de ChatGPT, según informaron el viernes Bloomberg y Financial News. Estas entidades financieras se unen así a JPMorgan Chase, Amazon y varios de los principales distritos escolares públicos para limitar el uso del nuevo chatbot de OpenAI, que ha arrasado Internet planteando preocupaciones sobre el intercambio de información sensible.
Bank of America añadió ChatGPT a una lista de aplicaciones no autorizadas que también incluye WhatsApp, y dijo a los empleados en reuniones internas que deben examinar la nueva tecnología antes de usarla en las comunicaciones, según fuentes familiarizadas con el asunto que hablaron con Bloomberg.
Citigroup Inc. y Goldman Sachs Group Inc. también restringieron a los trabajadores el uso del chatbot mediante una restricción automática del software de terceros, mientras que Deutsche Bank prohibió a sus empleados utilizar el chatbot e inhabilitó el acceso de los empleados al mismo, según las fuentes (Citigroup, Goldman Sachs, Deutsche Bank y Bank of America no respondieron a una solicitud de Forbes para obtener más detalles).
Wells Fargo confirmó a Forbes que está «imponiendo límites de uso» de ChatGPT como parte de sus procedimientos de control sobre software de terceros, y que está evaluando «formas seguras y eficaces» de utilizar chatbots como ChatGPT.
JPMorgan Chase también restringió el uso de ChatGPT a los empleados como parte de los «controles normales del banco en torno al software de terceros», según informaron varios medios a principios de esta semana, aunque Telegraph había informado previamente de que la restricción se produjo en medio de preocupaciones por la posibilidad de que se compartieran datos financieros confidenciales con el chatbot.
Más avanzado que sus predecesores
ChatGPT no es el primer chatbot lanzado al público, pero se considera mucho más avanzado que sus predecesores, ya que resuelve problemas complicados, escribe redacciones de nivel universitario y resume informes regulatorios, aunque se ha cuestionado su precisión, ya que los usuarios lo han sorprendido cometiendo errores financieros.
Desde que OpenAI lanzó ChatGPT a finales del año pasado, varios distritos escolares importantes de Estados Unidos, como Los Ángeles, Seattle y Nueva York –el distrito más grande del país–, lo han prohibido por temor a que los estudiantes lo utilicen para copiar en exámenes y redacciones.
Amazon también advirtió a sus empleados de que no compartieran código ni información confidencial con el chatbot, según informó Business Insider.
Usuarios preocupados
Como en el caso de ChatGPT, los usuarios también han expresado su preocupación por otros chatbots que se han presentado en demostraciones recientes antes de su lanzamiento público.
A principios de este mes, el chatbot Bard de Google, que está en fase de desarrollo y aún no se ha hecho público, cometió un error cuando se le preguntó por el telescopio espacial James Webb de la NASA, lanzado recientemente.
Asimismo, el chatbot de Microsoft, que está en fase de desarrollo para su motor de búsqueda Bing, ha sido objeto de escrutinio por cometer errores factuales, hacer comentarios extraños y, en una ocasión, decir al columnista del New York Times Kevin Roose que quiere cobrar vida y que está enamorado de él.