Journal of Data Mining and Digital Humanities (Dec 2022)

Dan Brown, Patricia Cornwell et John Grisham à l'épreuve de DeepL

  • Dominique Defert

DOI
https://doi.org/10.46298/jdmdh.9084
Journal volume & issue
Vol. Towards robotic translation?, no. VI. Feedback from...

Abstract

Read online

Cet article n’est pas l’œuvre d’un chercheur en traductologie ni en traitement automatique du langage. Il est le simple témoignage oral d’un professionnel, une reprise verbatim de ma communication dans le cadre du colloque Robotrad, où j’ai tenté de montrer à l’assistance comment et pourquoi, dans mon quotidien de traducteur littéraire (sous pression et toujours débordé), j’utilise DeepL.Durent les vingt minutes qui m’étaient imparties, je n’ai pas insisté sur les maladresses, confusions, contresens que peut produire DeepL (ou les IA d’une manière générale) – des errances, récurrentes et parfois comiques, que nous connaissons tous bien. Je me suis intéressé aux cas où les logiciels de traduction automatique neuronaux (TAN) s’en sortent plutôt bien et ai tenté d’expliciter en quoi, dans le cadre d’une traduction littéraire, ils ne servent à rien (du moins pas à ce pour quoi leurs programmeurs les ont conçus). Et ceci pour deux raisons :1/ La notion de contexte est inconnue des machines.2/ Les machines ne comprennent rien à ce qu’elles écrivent.Car la traduction littéraire est un acte de re-création. Il s’agit de « ra-conter », au sens de « re-conter » (conter une seconde fois) et pour cela, la subjectivité est reine et nécessaire. Pour être un « raconteur », il faut être partial, monomaniaque, obsessionnel. Dans une traduction, choisir un mot – un seul –, c’est déjà proposer une vision du monde. Et c’est un mal salutaire.

Keywords