Что касается самообучения, то здесь пока больше проблем, чем достижений

Какие там проблемы? Там один сплошной прогресс 3 десятка лет начиная с проигрыша Каспарова Дип блю и заканчивая проигрышем Ли Седоля Альфа го.
В направлении развития искусственного разума существует два направления, соответственно два термина (в простонародье это валят в одну кучу

)
Первый термин ИИ (AI-искуственный интелект), он обозначает что нейронная сеть сама обучается, сама берет информацию из открытых систем (я чуть выше описывал задачку с шестом на тележке) и сама принимает решение, что она обучена.
Второй термин - Машинное обучение (Machine learning), в этом случае нейронная сеть обучается на подготовленной выборке(с учителем).
В приведенном вами примере, компания DeepMind, как раз и учила нейронную сеть на выборке порядка 150 тыс партий. То есть с учителем.
Кстати и прогремевший чат GPT- это тоже не ИИ, это нейронка, которая обучена на огромном количестве примеров, то есть выражаясь корректно - это машинное обучение. Полное название - Generative Pre-training Transformer, ключевым здесь наверно является слово Transformer - оно описывает технологию векторизации слов. Именно благодаря ей , чат “чувствует” стиль общения.
И кстати GPT, отключен от интернета

Так что да в развитии Machine learning, грандиозный прогресс (о причинах надо разговаривать отдельно), а в ИИ пока пробуксовка
