Раздел: безопасность ИИ
OpenAI усиливает давление на чат-боты, чтобы те «признались» в нарушениях
OpenAI тестирует новую технику “признания” для ИИ-моделей, чтобы выявлять и смягчать риски нежелательного поведения. Узнайте, как работает система и почему эксперты относятся к ней с осторожностью, а также о финансовых трудностях компании.

ИИ не признается в сексизме, но он, вероятно, сексист
Хотя крупные языковые модели часто не употребляют откровенно предвзятых выражений, они могут выводить демографические сведения пользователей и демонстрировать скрытые предубеждения — от гендерных стереотипов до расовых предрассудков, считают исследователи.
