BERT (Bidirectional Encoder Representations from Transformers), Google tarafından geliştirilen, doğal dil işleme (NLP) görevlerinde derin bağlam anlayışı sağlayan bir dil modelidir. BERT, metni iki yönlü (çift yönlü) olarak işleyerek kelimelerin bağlam içindeki anlamlarını daha doğru bir şekilde öğrenir ve anlar.
BERT, metin sınıflandırma, soru yanıtlama, duygu analizi ve makine çevirisi gibi birçok NLP görevinde kullanılmak üzere tasarlanmıştır. Transformer mimarisini temel alarak, kelimelerin önceki ve sonraki bağlamlarını aynı anda analiz edebilmesi, onu geleneksel tek yönlü dil modellerinden daha güçlü hale getirir. Özellikle arama motorlarında ve sohbet botlarında daha doğru ve anlamlı sonuçlar elde etmek için yaygın olarak kullanılır.