Австралийцы обеспокоены ИИ. Делает ли федеральное правительство достаточно для снижения рисков?
Сегодня федеральный министр промышленности и науки Эд Хусик представил промежуточный ответ австралийского правительства о безопасном и ответственном использовании искусственного интеллекта (ИИ).
Общественность, особенно австралийская, испытывает серьезную обеспокоенность по поводу ИИ. И это уместно.
Искусственный интеллект — мощная технология, которая быстро входит в нашу жизнь. К 2030 году это может увеличить австралийскую экономику на 40% , добавив 600 миллиардов австралийских долларов к нашему годовому валовому внутреннему продукту. Согласно недавнему отчету Международного валютного фонда, ИИ может также повлиять на 40% рабочих мест во всем мире и 60% рабочих мест в развитых странах, таких как Австралия .
Для половины этих рабочих мест воздействие будет положительным, повышая производительность и сокращая тяжелую работу. Но в другой половине последствия могут быть отрицательными, приводя к сокращению рабочих мест или даже к полному уничтожению некоторых рабочих мест. Точно так же, как лифтерам и секретарям машинописных машин пришлось двигаться дальше и искать новую профессию, так же, как и водителям грузовиков и судебным клеркам.
Возможно, неудивительно, что согласно недавнему опросу 31 страны, проведенному исследователем рынка Ipsos, Австралия оказалась страной, которая больше всего нервничала по поводу ИИ . Около 69% австралийцев по сравнению с 23% японцев обеспокоены использованием ИИ. И только 20% из нас думали, что это улучшит рынок труда.
Поэтому следует приветствовать новый временный ответ австралийского правительства. Это несколько запоздалый ответ на прошлогоднюю общественную консультацию по ИИ . Он получил более 500 заявок от бизнеса, гражданского общества и научных кругов. Я участвовал во многих из этих представлений.
Каковы основные моменты реакции правительства на ИИ?
Как и любой хороший план, реакция правительства имеет три направления.
Во-первых, существует план сотрудничества с промышленностью для разработки добровольных стандартов безопасности ИИ. Во-вторых, существует также план сотрудничества с промышленностью для разработки вариантов добровольной маркировки и нанесения водяных знаков на материалы, созданные с помощью ИИ. И, наконец, правительство создаст экспертно-консультативный орган для «поддержки разработки вариантов обязательных ограждений ИИ».
Это все хорошие идеи. Международная организация по стандартизации уже несколько лет работает над стандартами ИИ . Например, Standards Australia только что помогла запустить новый международный стандарт , который поддерживает ответственную разработку систем управления ИИ.
Промышленная группа, в которую входят Microsoft, Adobe, Nikon и Leica, разработала открытые инструменты для маркировки и нанесения водяных знаков на цифровой контент. Следите за новым логотипом « Учетные данные контента », который начинает появляться на цифровом контенте.
А правительство Нового Южного Уэльса еще в 2021 году создало консультативный комитет экспертов из 11 человек для консультирования по вопросам надлежащего использования искусственного интеллекта.
Немного поздно?
Трудно не прийти к выводу, что последний ответ федерального правительства несколько несерьезный и немного запоздалый.
В этом году голосуют более половины демократических стран мира. На выборы придут более 4 миллиардов человек . И мы скоро увидим, как ИИ изменит эти выборы.
Мы уже видели использование дипфейков на недавних выборах в Аргентине и Словакии . Республиканская партия США выпустила предвыборную рекламу, в которой полностью используются изображения, созданные искусственным интеллектом .
Готовы ли мы к миру, в котором все, что вы видите или слышите, может оказаться фальшивкой? И будет ли добровольных руководящих принципов достаточно для защиты честности этих выборов? К сожалению, многие технологические компании сокращают персонал в этой области как раз в тот момент, когда они нужны больше всего.
Европейский Союз лидировал в регулировании ИИ — он начал разрабатывать нормативные акты еще в 2020 году. И до вступления в силу Закона ЕС об ИИ остается еще год или около того. Это подчеркивает, насколько далеко отстает Австралия.
Риск-ориентированный подход
Как и ЕС, временные меры австралийского правительства предлагают подход, основанный на оценке риска. Существует множество безобидных способов использования ИИ, которые не вызывают особого беспокойства. Например, вы, скорее всего, получите намного меньше спама благодаря фильтрам AI. И для того, чтобы эти AI-фильтры выполняли соответствующую работу, не требуется большого регулирования.
Но есть и другие области, такие как судебная система и полиция, где влияние ИИ может быть более проблематичным. Что, если ИИ дискриминирует тех, кто проходит собеседование при приеме на работу? Или предвзятость в технологиях распознавания лиц приведет к тому, что еще больше коренных жителей будут ошибочно заключены в тюрьмы?
Промежуточные меры реагирования выявляют такие риски, но предпринимают мало конкретных шагов, чтобы их избежать.
Однако самый большой риск, который не отражен в отчете, — это риск упустить выгоду. ИИ — это прекрасная возможность, такая же или даже превосходящая Интернет.
Когда в прошлом году правительство Соединенного Королевства опубликовало аналогичный отчет о рисках ИИ , оно устранило этот риск, объявив об инвестировании еще 1 миллиарда фунтов (1,9 миллиарда австралийских долларов) в дополнение к более чем 1 миллиарду фунтов предыдущих инвестиций.
Правительство Австралии на данный момент объявило о выделении менее 200 миллионов австралийских долларов . Наша экономика и население составляют около трети Великобритании. Однако до сих пор инвестиции были в 20 раз меньше. Мы рискуем пропустить лодку.
Отчёт