Anthropic se está esforzando por centrarse en comunicar su misión y sus características distintivas, como su chatbot Claude, por lo que esta semana опубликовала una nueva versión de la llamada “constitución”, explicando los principios de su funcionamiento y los objetivos perseguidos en su desarrollo.

El documento define los principios éticos que la empresa sigue al desarrollar Claude. Estos principios también se utilizan para la autosupervisión del chatbot. La denominada "constitución del software" contiene 80 páginas y consta de cuatro secciones que definen los valores fundamentales del chatbot: seguridad, ética, alineamiento con la misión de Anthropic y compromiso con el bien común. Cada sección describe cómo estos principios influyen en el comportamiento de Claude.
Los desarrolladores de Claude se esfuerzan por evitar los errores éticos de sus competidores. Por ejemplo, si el chatbot sospecha que un usuario padece un trastorno mental, recomienda inmediatamente contactar a un especialista si se hace evidente que la situación podría suponer una amenaza para la vida y la salud. Las cuestiones éticas se abordan más en un contexto práctico que en debates teóricos. Algunos temas están inicialmente prohibidos, por ejemplo, la creación de armas biológicas.
Finalmente, Anthropic se esfuerza por que Claude sea lo más intuitivo y útil posible. Garantizar el bienestar a largo plazo de las personas al proporcionar información a través del chatbot se prioriza sobre los intereses a corto plazo. La constitución de Claude también incluye una sección dedicada a las reflexiones filosóficas de los desarrolladores. Cuestionan la moral y la conciencia de Claude, enfatizando que no son los únicos en tales reflexiones, y que competidores y colegas también se plantean preguntas similares.
Fuente:
Fuente: 3dnews.ru

