Будущее внутреннего аудита в организациях и учреждениях должно быть направлено на внедрение технологий как стратегического инструмента для смягчения рисков в цифровую эпоху. В своем выступлении эксперт объяснил, что информационно-коммуникационные технологии (ИКТ) в сочетании с использованием искусственного интеллекта (ИИ) предлагают беспрецедентные возможности для управления угрозами в более короткие сроки, хотя они требуют глубоких культурных изменений в профессиональной практике. По словам Джолли Мура, это реальность, что текущие риски исходят непосредственно от технологии, особенно в таких областях, как кибербезопасность. Такие угрозы, как утечка конфиденциальной информации и растущие попытки киберпреступности, требуют, чтобы специалисты интегрировали инновационные решения для обеспечения корпоративной безопасности. В Конгрессе 2026 Института внутренних аудиторов Панамы (CONAI) Хулио Джолли Мур, партнер-директор Global Advisory Solutions (GLOADSO), представил лекцию «Динамический аудит, основанный на рисках». Эта необходимость в эволюции технологий основана на развитии инструментов, используемых киберпреступниками. Поэтому он призвал аудиторов выявлять и оценивать эти угрозы на всех этапах своих процессов, гибко адаптируясь к постоянной цифровизации операций. Эти методы позволяют имитировать голоса и изображения пользователей для кражи личных данных, банковского мошенничества и обхода систем безопасности верификации по лицу. В этом контексте CONAI 2026, организованный Институтом внутренних аудиторов Панамы — филиал The Institute of Internal Auditors Global, подтвердил свою позицию как профессионального авторитета в стране, продвигая стратегии, позволяющие внутреннему аудиту стать опорой устойчивости перед лицом незаконного использования синтетических элементов и мошеннических приложений в социальных сетях. Глобальное исследование, проведенное в 47 странах, показало, что 54% граждан не полностью доверяют искусственному интеллекту, в то время как 70% требуют более строгих правил для борьбы с дезинформацией и неправомерным использованием личных данных. Искусственный интеллект трансформировал эффективность и творчество в цифровой сфере; однако в 2026 году дебаты сосредоточены на этических границах его применения. Когда эта технология полностью заменяет человеческое суждение, ошибки перестают восприниматься как технические сбои и рассматриваются аудиторией как глубокое отсутствие чуткости и безразличия к социальному контексту. Сопротивление этой технологии — не изолированное явление. В эпоху, dominated by синтетическим, способность интерпретировать контекст и принимать решения с человеческой чуткостью стала самым выдающимся и необходимым ценностью для современной стратегической коммуникации. Хулио Джолли Мур, партнер-директор GLOADSO, подчеркнул необходимость культурных изменений в профессии в сторону проактивного отношения к угрозам цифровой эпохи. Глобальное исследование показало, что 54% людей не доверяют искусственному интеллекту, что вынуждает компании использовать инструменты активного прослушивания для защиты своей репутации. Эта техника действует как радар, способный улавливать изменения тона, зарождающуюся иронию и критику, которые могут перерасти в цифровые кризисы за считаные часы. Эта напряженность ставит бренды в ситуацию, где допускать ошибки почти нельзя, поскольку аудитория резко реагирует на содержание, которое воспринимается как холодное или спекулятивное. Тереза Веласко Басурто, директор по социальным сетям агентства another, утверждает, что проблема возникает, когда компании автоматизируют чувствительные решения. «ИИ сам по себе не пересекает черту; ее пересекают бренды, используя его без контекста», — говорит эксперт, отмечая, что использование ботов для управления эмоциональными разговорами или присоединения к тенденциям без культурного понимания воспринимается как неуважение к аудитории. В этих условиях социальное прослушивание эволюционировало от простой панели метрик до незаменимого инструмента культурного анализа. Обнаружение этих мелких, нерешенных недовольств является ключом к сохранению доверия и предотвращению ухудшения восприятия бренда. Скорость искусственного интеллекта действует как усилитель: если есть ясность и суждение, он усиливает сообщение; в противном случае, он ускоряет распространение ошибки. Согласно специализированным отчетам, использование ИИ для создания мошенничества с аудио и видео с помощью «глубоких фейков» представляет собой еще большую проблему.
Будущее внутреннего аудита: технологии для смягчения цифровых рисков
Эксперты подчеркивают необходимость культурных изменений в профессии внутреннего аудита для борьбы с растущими киберугрозами и использованием искусственного интеллекта. Глобальное исследование показывает высокий уровень недоверия к ИИ и спрос на более строгие регулирования.