Издание Сnews со ссылкой на слова замдиректора департамента информационных систем Минобороны РФ Николая Лишина пишет (
https://www.cnews.ru/news/top/2023-12-25_minoborony_trebuet_zapreta) о том, что ведомство призывает запретить использование генеративных алгоритмов искусственного интеллекта, таких как ChatGPT, Midjourney, Dall-e 2, StableDiffusion и других, в критических областях.
Минобороны предупреждает, что эти алгоритмы могут не давать объективных результатов и могут использоваться для сбора разведывательной информации или когнитивного влияния на население. Министерство обеспокоено тем, что иностранный искусственный интеллект представляет угрозу национальной безопасности, так как алгоритмы отражают взгляды в основном западных создателей, а не объективные модели.
Оно приводит в пример проблематичную характеристику «аннексии» Крыма в ChatGPT и сравнивает ее с информацией на Википедии. Министерство видит опасность в использовании искусственного интеллекта для когнитивной войны против россиян, а также в утечках данных, дипфейках и усилении кибератак.
Примечательно, что обратно в каменный век затащить россиян не хотят, а предлагают развивать свои собственные нейросети. Предлагаем к уже имеющимся российским сетям ИИ создать новые со следующими названиями: КрымGPT, Крымjourney и КрымDiffusion. Чтобы наверняка 😂