Modelo de código abierto de OpenAI: ¿Esquivando la bala ética real?
OpenAI lanzó recientemente un modelo de lenguaje de gran tamaño de código abierto, pero sus preocupaciones declaradas sobre la 'seguridad' han levantado algunas cejas. El artículo argumenta que OpenAI desvía hábilmente las preocupaciones públicas sobre la ética de la IA hacia la moral inherente del modelo: evitar que use malas palabras o tome decisiones dañinas. Sin embargo, el público está mucho más preocupado por las implicaciones del mundo real: gobernanza, rendición de cuentas, uso de datos, desplazamiento de empleos, etc. Esto refleja estrategias tecnológicas pasadas en torno a la privacidad, centrándose en problemas fácilmente solucionables mientras se evitan desafíos sociales más difíciles. En lugar de preocuparse por si la IA sigue las pautas éticas, deberíamos concentrarnos en las empresas y líderes que utilizan esa IA. La verdadera cuestión de la ética de la IA es cómo garantizar que estas empresas no abusen de sus recursos y poder para perjudicar a la humanidad.