Развитие технологий машинного обучения и искусственного интеллекта позволило автоматизировать решение многих прикладных задач из самых разных областей и значительно повысить качество решений. Одной из важных задач является перевод с одного языка на другой. Использование машинного перевода позволяет значительно снизить финансовые и временные затраты, позволяя переводчикам получить либо уже окончательно переведённый текст, либо достаточно качественную основу для дальнейшего перевода. В последние годы для машинного перевода наиболее широко используются нейронные сети. При этом самые высокие результаты в машинном переводе достигаются с использованием архитектуры Трансформер. Поэтому именно перевод с помощью Трансформер рассматривается в данной работе. Для получения качественного перевода удачного выбора модели недостаточно. Необходимо уметь правильно обучать модель. Поэтому выбор метода оптимизации, а также гиперпараметров для него имеет большое значение. Но на данный момент не существует универсального алгоритма для подбора наилучшего метода оптимизации и гиперпараметров для задаваемой языковой пары и обучающего датасета. Поэтому проблема выбора алгоритма оптимизации требует детального изучения. В этой работе рассматриваются различные методы оптимизации первого порядка для обучения архитектуры Трансформер и исследуется их поведение в зависимости от пары языков, между которыми выполняется перевод, и размера параллельного корпуса для обучения.
Отзывы:
Авторизуйтесь, чтобы оставить отзыви хорошего настроения
удачи
успехов в конкурсе
Наверное было затрачено много времени и труда на работу
Продолжай свое исследование
Админам респект
Как на счет взаимных комментариев под работами?)
Красиво написанная работа
Так держать
Молодец
Интересная работа!