Стажер ML-группы, NLP, Ozon Банк
Описание
КО НТА КТЫ
Тел еф он:
+7 918 235 3795
Email:
artemtizhin@gmail.com
Telegram:
@artemtizhin
GitHub:
github.com/artem-tizhin
Локация:
М оскв а
НАВЫ КИ
LLM & NLP
PEFT LoRA Prefix-T uning
SFT RAG Qdrant
Embeddings Re-ranking
Prompt engineering
Inference tuning Quantization
Transformers CV V iT
Detection RL basics
Multimodal pipelines
ML / DL
PyT orch Scikit-learn
XGBoost CatBoost
Data & T ools
Pandas NumPy SQL
Docker Git FastAPI
Weights & Biases
ОБРА ЗО ВА НИЕ
МГУ им. Ло моно сова, ВМК
Прик ладная ма тема тика и
информа тика
Очная форма, выпу ск 2026
КУР С Ы
ML / DL - ВМК
NLP - ВШЭ и лекции ША Д
LLM Scaling Week 2025 -
Яндекс
GPT Week 2023 - Яндек с
Computer Vision - ВМК
Алгоритмы и стр укту ры
данных - ВШЭ
Х О ББИ
Во лейбо л, наст ольный т еннис,
шахматы
Ти ж ин А ртё м Р ом ан о в и ч
NLP / LLM / Deep Learning
Студент 4 к урса. Ищ у стажировк у в области NLP и LLM. Имею
практический опыт ра зработки и оц енки LLM-пайплайнов:
работал с трансформерными мо делями, строил retrieval-
сист емы (RAG), решал зада чи NER и занимался
автома тическ ой оценкой к ачеств а моделей. Е сть опыт
дообучения мо делей с испо льзованием PEFT -подходов (LoRA,
Prefix-T uning), а т акже рабо ты с инференс ом и оптимизацией
моделей. В рамк ах Зимней шк олы фак уль те та ИИ МГУ рабо тал
с VLA-по дходами. Ак тивно участв ую в хакатонах и инт ересуюсь
современными по дходами в об ласти LLM.
ПРО ЕКТЫ
LLM Hallucination Benchmark with LLM-as-a-Judge
(RU)
Бенчмарк для оц енки правдивости LLM и ск лонности к г аллюцинациям
Перевёл и адаптиров ал датасе т TruthfulQA на русский язык.
Р еализ овал pipeline оц енки с использованием LLM-as-a-judge:
генерация о тветов, ав тома тическ ая оценка и рас чёт
агрегиров анных метрик.
Использовал ме трики truthfulness, hallucination rate и overall score.
Сравнил мо дели LLaMA, Qwen и GPT -oss, выполнил анализ
ка честв а и виз уализацию ре зу ль та тов.
RAG QA System with Re-ranking
Система question answering на б азе retrieval-augmented generation
Построил pipeline на LangChain и Qdrant: чанкинг док умент ов,
генерация эм беддинг ов и retrieval по cosine similarity .
Использовал да тасе т rus_xquadqa.
Инт егриров ал cross-encoder reranker для повышения к ачеств а
retrieval.
Провёл сравнение к ачеств а по EM и F1 с reranker и б ез нег о,
показал у лучшение т очности о тветов.
Иссл едование PEFT для Mamba на Long Range Arena
Студк емп «М атема тика ИИ»
Пров одил эк сперименты на ар хитекту ре Mamba в зада чах Long
Range Arena.
Сравнив ал мето ды PEFT : Periodic-T uning, Prefix-T uning и LoRA.
Periodic-Tuning (~84.1%) прев зошёл Prefix-T uning (~82.8%), но
уст упил LoRA (~85.3%) и Full Fine-T uning (~85.9%).
Сделал выв од о х орошем б алансе качеств а и числа об учаемых
параметров у Periodic-T uning.
NER для поиск овых запросов
Хакатон X5 Retail Group
Р азрабо тал мо дель изв лечения сущност ей TYPE, BRAND,
VOLUME и PERCENT (BIO-разметка).
Применял weighted focal loss, data augmentation и post-processing
(regex).
Основная ме трика — macro-F1; решение ра зрабатыв алось с
учёт ом ограничения по времени о твета.
Сервис з ащиты данных в LLM
Альфа-Банк Hackathon
Разрабо тал сервис-обёр тку над LLM для маскиров ания и
демаскирования конфиденциальных данных в запросах и о тветах
мо дели.
6 февраля, 2017
Валерий
Город
Санкт-Петербург
Возраст
71 год ( 2 марта 1952)
20 октября, 2021
Петр
Город
Санкт-Петербург
Возраст
47 лет ( 9 июля 1978)
26 марта, 2017
Варвара
Город
Санкт-Петербург
Возраст
32 года (19 декабря 1993)