Determina la codifica di una stringa in C #


127

C'è un modo per determinare la codifica di una stringa in C #?

Ad esempio, ho una stringa di nome file, ma non so se sia codificata in Unicode UTF-16 o nella codifica predefinita del sistema, come faccio a scoprirlo?


Non è possibile "codificare" in Unicode. E non c'è modo di determinare automagicamente la codifica di una determinata stringa, senza altre informazioni precedenti.
Nicolas Dumazet,

5
per essere più chiari forse: codifichi punti di codice Unicode in stringhe di byte di un set di caratteri usando uno schema di "codifica" (utf- , iso- , big5, shift-jis, ecc ...) e decodifichi stringhe di byte da un set di caratteri su Unicode. Non codificare i bytestring in Unicode. Non decodificare Unicode in bytestrings.
Nicolas Dumazet,

13
@NicDunZ - la codifica stessa (in particolare UTF-16) è anche comunemente chiamata "Unicode". Giusto o sbagliato, questa è la vita. Anche in .NET, guarda Encoding.Unicode - che significa UTF-16.
Marc Gravell

2
vabbè, non sapevo che .NET fosse così fuorviante. Sembra un'abitudine terribile da imparare. E scusa @krebstar, non era mia intenzione (penso ancora che la tua domanda modificata abbia molto più senso ora rispetto a prima)
Nicolas Dumazet,

1
@Nicdumz # 1: esiste un modo per determinare probabilisticamente quale codifica utilizzare. Guarda cosa fa IE (e ora anche FF con View - Codifica caratteri - Rilevamento automatico) per questo: prova una codifica e vedi se è probabilmente "ben scritto <metti qui un nome di lingua>" o cambialo e riprova . Dai, può essere divertente!
SnippyHolloW,

Risposte:


31

Dai un'occhiata a Utf8Checker è una classe semplice che fa esattamente questo nel puro codice gestito. http://utf8checker.codeplex.com

Nota: come già sottolineato, "determinare la codifica" ha senso solo per i flussi di byte. Se hai una stringa, è già codificata da qualcuno lungo la strada che già conosceva o indovinava la codifica per ottenere la stringa in primo luogo.


Se la stringa è una decodifica errata eseguita con una codifica a 8 bit e la codifica viene utilizzata per decodificarla, in genere è possibile ripristinare i byte senza corruzione.
Nyerguds,

57

Il codice seguente ha le seguenti caratteristiche:

  1. Rilevamento o tentativo di rilevamento di UTF-7, UTF-8/16/32 (bom, no bom, little & big endian)
  2. Torna alla tabella codici predefinita locale se non è stata trovata alcuna codifica Unicode.
  3. Rileva (con alta probabilità) file unicode con la BOM / firma mancante
  4. Cerca charset = xyz e encoding = xyz all'interno del file per determinare la codifica.
  5. Per salvare l'elaborazione, è possibile "assaggiare" il file (numero definibile di byte).
  6. Viene restituito il file di testo codificato e decodificato.
  7. Soluzione puramente basata su byte per efficienza

Come altri hanno già detto, nessuna soluzione può essere perfetta (e certamente non si può facilmente distinguere tra le varie codifiche ASCII estese a 8 bit in uso in tutto il mondo), ma possiamo ottenere "abbastanza buono" soprattutto se lo sviluppatore presenta anche all'utente un elenco di codifiche alternative come mostrato qui: Qual è la codifica più comune di ogni lingua?

È possibile trovare un elenco completo di codifiche utilizzando Encoding.GetEncodings();

// Function to detect the encoding for UTF-7, UTF-8/16/32 (bom, no bom, little
// & big endian), and local default codepage, and potentially other codepages.
// 'taster' = number of bytes to check of the file (to save processing). Higher
// value is slower, but more reliable (especially UTF-8 with special characters
// later on may appear to be ASCII initially). If taster = 0, then taster
// becomes the length of the file (for maximum reliability). 'text' is simply
// the string with the discovered encoding applied to the file.
public Encoding detectTextEncoding(string filename, out String text, int taster = 1000)
{
    byte[] b = File.ReadAllBytes(filename);

    //////////////// First check the low hanging fruit by checking if a
    //////////////// BOM/signature exists (sourced from http://www.unicode.org/faq/utf_bom.html#bom4)
    if (b.Length >= 4 && b[0] == 0x00 && b[1] == 0x00 && b[2] == 0xFE && b[3] == 0xFF) { text = Encoding.GetEncoding("utf-32BE").GetString(b, 4, b.Length - 4); return Encoding.GetEncoding("utf-32BE"); }  // UTF-32, big-endian 
    else if (b.Length >= 4 && b[0] == 0xFF && b[1] == 0xFE && b[2] == 0x00 && b[3] == 0x00) { text = Encoding.UTF32.GetString(b, 4, b.Length - 4); return Encoding.UTF32; }    // UTF-32, little-endian
    else if (b.Length >= 2 && b[0] == 0xFE && b[1] == 0xFF) { text = Encoding.BigEndianUnicode.GetString(b, 2, b.Length - 2); return Encoding.BigEndianUnicode; }     // UTF-16, big-endian
    else if (b.Length >= 2 && b[0] == 0xFF && b[1] == 0xFE) { text = Encoding.Unicode.GetString(b, 2, b.Length - 2); return Encoding.Unicode; }              // UTF-16, little-endian
    else if (b.Length >= 3 && b[0] == 0xEF && b[1] == 0xBB && b[2] == 0xBF) { text = Encoding.UTF8.GetString(b, 3, b.Length - 3); return Encoding.UTF8; } // UTF-8
    else if (b.Length >= 3 && b[0] == 0x2b && b[1] == 0x2f && b[2] == 0x76) { text = Encoding.UTF7.GetString(b,3,b.Length-3); return Encoding.UTF7; } // UTF-7


    //////////// If the code reaches here, no BOM/signature was found, so now
    //////////// we need to 'taste' the file to see if can manually discover
    //////////// the encoding. A high taster value is desired for UTF-8
    if (taster == 0 || taster > b.Length) taster = b.Length;    // Taster size can't be bigger than the filesize obviously.


    // Some text files are encoded in UTF8, but have no BOM/signature. Hence
    // the below manually checks for a UTF8 pattern. This code is based off
    // the top answer at: /programming/6555015/check-for-invalid-utf8
    // For our purposes, an unnecessarily strict (and terser/slower)
    // implementation is shown at: /programming/1031645/how-to-detect-utf-8-in-plain-c
    // For the below, false positives should be exceedingly rare (and would
    // be either slightly malformed UTF-8 (which would suit our purposes
    // anyway) or 8-bit extended ASCII/UTF-16/32 at a vanishingly long shot).
    int i = 0;
    bool utf8 = false;
    while (i < taster - 4)
    {
        if (b[i] <= 0x7F) { i += 1; continue; }     // If all characters are below 0x80, then it is valid UTF8, but UTF8 is not 'required' (and therefore the text is more desirable to be treated as the default codepage of the computer). Hence, there's no "utf8 = true;" code unlike the next three checks.
        if (b[i] >= 0xC2 && b[i] <= 0xDF && b[i + 1] >= 0x80 && b[i + 1] < 0xC0) { i += 2; utf8 = true; continue; }
        if (b[i] >= 0xE0 && b[i] <= 0xF0 && b[i + 1] >= 0x80 && b[i + 1] < 0xC0 && b[i + 2] >= 0x80 && b[i + 2] < 0xC0) { i += 3; utf8 = true; continue; }
        if (b[i] >= 0xF0 && b[i] <= 0xF4 && b[i + 1] >= 0x80 && b[i + 1] < 0xC0 && b[i + 2] >= 0x80 && b[i + 2] < 0xC0 && b[i + 3] >= 0x80 && b[i + 3] < 0xC0) { i += 4; utf8 = true; continue; }
        utf8 = false; break;
    }
    if (utf8 == true) {
        text = Encoding.UTF8.GetString(b);
        return Encoding.UTF8;
    }


    // The next check is a heuristic attempt to detect UTF-16 without a BOM.
    // We simply look for zeroes in odd or even byte places, and if a certain
    // threshold is reached, the code is 'probably' UF-16.          
    double threshold = 0.1; // proportion of chars step 2 which must be zeroed to be diagnosed as utf-16. 0.1 = 10%
    int count = 0;
    for (int n = 0; n < taster; n += 2) if (b[n] == 0) count++;
    if (((double)count) / taster > threshold) { text = Encoding.BigEndianUnicode.GetString(b); return Encoding.BigEndianUnicode; }
    count = 0;
    for (int n = 1; n < taster; n += 2) if (b[n] == 0) count++;
    if (((double)count) / taster > threshold) { text = Encoding.Unicode.GetString(b); return Encoding.Unicode; } // (little-endian)


    // Finally, a long shot - let's see if we can find "charset=xyz" or
    // "encoding=xyz" to identify the encoding:
    for (int n = 0; n < taster-9; n++)
    {
        if (
            ((b[n + 0] == 'c' || b[n + 0] == 'C') && (b[n + 1] == 'h' || b[n + 1] == 'H') && (b[n + 2] == 'a' || b[n + 2] == 'A') && (b[n + 3] == 'r' || b[n + 3] == 'R') && (b[n + 4] == 's' || b[n + 4] == 'S') && (b[n + 5] == 'e' || b[n + 5] == 'E') && (b[n + 6] == 't' || b[n + 6] == 'T') && (b[n + 7] == '=')) ||
            ((b[n + 0] == 'e' || b[n + 0] == 'E') && (b[n + 1] == 'n' || b[n + 1] == 'N') && (b[n + 2] == 'c' || b[n + 2] == 'C') && (b[n + 3] == 'o' || b[n + 3] == 'O') && (b[n + 4] == 'd' || b[n + 4] == 'D') && (b[n + 5] == 'i' || b[n + 5] == 'I') && (b[n + 6] == 'n' || b[n + 6] == 'N') && (b[n + 7] == 'g' || b[n + 7] == 'G') && (b[n + 8] == '='))
            )
        {
            if (b[n + 0] == 'c' || b[n + 0] == 'C') n += 8; else n += 9;
            if (b[n] == '"' || b[n] == '\'') n++;
            int oldn = n;
            while (n < taster && (b[n] == '_' || b[n] == '-' || (b[n] >= '0' && b[n] <= '9') || (b[n] >= 'a' && b[n] <= 'z') || (b[n] >= 'A' && b[n] <= 'Z')))
            { n++; }
            byte[] nb = new byte[n-oldn];
            Array.Copy(b, oldn, nb, 0, n-oldn);
            try {
                string internalEnc = Encoding.ASCII.GetString(nb);
                text = Encoding.GetEncoding(internalEnc).GetString(b);
                return Encoding.GetEncoding(internalEnc);
            }
            catch { break; }    // If C# doesn't recognize the name of the encoding, break.
        }
    }


    // If all else fails, the encoding is probably (though certainly not
    // definitely) the user's local codepage! One might present to the user a
    // list of alternative encodings as shown here: /programming/8509339/what-is-the-most-common-encoding-of-each-language
    // A full list can be found using Encoding.GetEncodings();
    text = Encoding.Default.GetString(b);
    return Encoding.Default;
}

Funziona con i file cirillici (e probabilmente tutti gli altri) .eml (dall'intestazione del set di caratteri della posta)
Nime Cloud

UTF-7 non può essere decodificato in modo così ingenuo, in realtà; il suo preambolo completo è più lungo e include due bit del primo carattere. Il sistema .Net sembra non avere alcun supporto per il sistema di preamboli di UTF7.
Nyerguds

Ha funzionato per me quando nessuno degli altri metodi che ho controllato non ha aiutato! Grazie Dan.
Tejasvi Hegde,

Grazie per la tua soluzione Lo sto usando per determinare la codifica su file da fonti completamente diverse. Quello che ho scoperto, però, è che se uso un valore di assaggiatore troppo basso, il risultato potrebbe essere sbagliato. (ad esempio il codice restituiva Encoding.Default per un file UTF8, anche se stavo usando b.Length / 10 come mio assaggiatore.) Quindi mi sono chiesto, qual è l'argomento per usare un assaggiatore che è inferiore a b.Length? Sembra che posso solo concludere che Encoding.Default è accettabile se e solo se ho scannerizzato l'intero file.
Sean,

@Sean: è quando la velocità conta più della precisione, specialmente per i file che possono avere dimensioni di dozzine o centinaia di megabyte. Nella mia esperienza, anche un valore di assaggiatore basso può produrre risultati corretti ~ il 99,9% delle volte. La tua esperienza potrebbe essere diversa.
Dan W,

33

Dipende da dove proviene la stringa. Una stringa .NET è Unicode (UTF-16). L'unico modo in cui potrebbe essere diverso se, diciamo, leggi i dati da un database in un array di byte.

Questo articolo di CodeProject potrebbe essere interessante: Rileva codifica per testo in entrata e in uscita

Stringhe di Jon Skeet in C # e .NET è un'eccellente spiegazione delle stringhe .NET.


Proviene da un'app C ++ non Unicode .. L'articolo CodeProject sembra un po 'troppo complesso, tuttavia sembra fare quello che voglio fare .. Grazie ..
krebstar

18

So che è un po 'tardi - ma per essere chiari:

Una stringa non ha davvero la codifica ... in .NET una stringa è una raccolta di oggetti char. In sostanza, se è una stringa, è già stata decodificata.

Tuttavia, se stai leggendo il contenuto di un file, composto da byte, e desideri convertirlo in una stringa, devi utilizzare la codifica del file.

.NET include classi di codifica e decodifica per: ASCII, UTF7, UTF8, UTF32 e altro.

La maggior parte di queste codifiche contiene alcuni segni di ordine di byte che possono essere utilizzati per distinguere il tipo di codifica utilizzato.

La classe .NET System.IO.StreamReader è in grado di determinare la codifica utilizzata all'interno di un flusso, leggendo quei segni di ordine byte;

Ecco un esempio:

    /// <summary>
    /// return the detected encoding and the contents of the file.
    /// </summary>
    /// <param name="fileName"></param>
    /// <param name="contents"></param>
    /// <returns></returns>
    public static Encoding DetectEncoding(String fileName, out String contents)
    {
        // open the file with the stream-reader:
        using (StreamReader reader = new StreamReader(fileName, true))
        {
            // read the contents of the file into a string
            contents = reader.ReadToEnd();

            // return the encoding.
            return reader.CurrentEncoding;
        }
    }

3
Ciò non funzionerà per rilevare UTF 16 senza la distinta componenti. Né tornerà alla tabella codici locale predefinita dell'utente se non riesce a rilevare alcuna codifica Unicode. È possibile risolvere quest'ultimo aggiungendo Encoding.Defaultcome parametro StreamReader, ma il codice non rileverà UTF8 senza la distinta componenti.
Dan W,

1
@DanW: UTF-16 senza BOM è mai stato effettivamente fatto? Non lo userei mai; è destinato a essere un disastro per aprire praticamente qualsiasi cosa.
Nyerguds,

11

Un'altra opzione, molto in arrivo, scusa:

http://www.architectshack.com/TextFileEncodingDetector.ashx

Questa piccola classe solo C # utilizza le BOMS se presenti, cerca di rilevare automaticamente eventuali codifiche Unicode e ricade se nessuna delle codifiche Unicode è possibile o probabile.

Sembra che UTF8Checker sopra citato faccia qualcosa di simile, ma penso che questo abbia un ambito leggermente più ampio - invece di solo UTF8, controlla anche altre possibili codifiche Unicode (UTF-16 LE o BE) che potrebbero mancare una distinta base.

Spero che questo aiuti qualcuno!


Codice abbastanza carino, ha risolto il mio problema di rilevamento della codifica :)
CARLOS LOTH

9

Il pacchetto Nuget SimpleHelpers.FileEncoding racchiude una porta C # del Mozilla Universal Charset Detector in un'API semplicissima:

var encoding = FileEncoding.DetectFileEncoding(txtFile);

questo dovrebbe essere più in alto, fornisce una soluzione molto semplice: lascia che gli altri facciano il lavoro: D
buddybubble,

Questa libreria è GPL
A partire dal

È? Vedo una licenza MIT e utilizza un componente con tripla licenza (UDE), uno dei quali è MPL. Ho cercato di determinare se UDE era problematico per un prodotto proprietario, quindi se hai più informazioni, sarebbe molto apprezzato.
Simon Woods,

5

La mia soluzione è quella di utilizzare elementi incorporati con alcuni fallback.

Ho scelto la strategia da una risposta a un'altra domanda simile su StackOverflow ma non riesco a trovarla ora.

Controlla innanzitutto la DBA usando la logica integrata in StreamReader, se c'è DBA, la codifica sarà qualcosa di diverso da Encoding.Default e dovremmo fidarci di quel risultato.

In caso contrario, controlla se la sequenza di byte è valida per la sequenza UTF-8. in tal caso, indovinerà UTF-8 come codifica e, in caso contrario, la codifica ASCII predefinita sarà il risultato.

static Encoding getEncoding(string path) {
    var stream = new FileStream(path, FileMode.Open);
    var reader = new StreamReader(stream, Encoding.Default, true);
    reader.Read();

    if (reader.CurrentEncoding != Encoding.Default) {
        reader.Close();
        return reader.CurrentEncoding;
    }

    stream.Position = 0;

    reader = new StreamReader(stream, new UTF8Encoding(false, true));
    try {
        reader.ReadToEnd();
        reader.Close();
        return Encoding.UTF8;
    }
    catch (Exception) {
        reader.Close();
        return Encoding.Default;
    }
}

3

Nota: questo è stato un esperimento per vedere come la codifica UTF-8 ha funzionato internamente. La soluzione offerta da vilicvane , per utilizzare un UTF8Encodingoggetto inizializzato per generare un'eccezione in caso di errore di decodifica, è molto più semplice e sostanzialmente fa la stessa cosa.


Ho scritto questo pezzo di codice per distinguere tra UTF-8 e Windows-1252. Tuttavia, non dovrebbe essere utilizzato per file di testo giganteschi, poiché carica l'intera cosa in memoria e la scansiona completamente. L'ho usato per i file di sottotitoli .srt, solo per essere in grado di salvarli nella codifica in cui sono stati caricati.

La codifica fornita alla funzione come ref dovrebbe essere la codifica di fallback a 8 bit da utilizzare nel caso in cui il file venga rilevato come non valido UTF-8; generalmente, su sistemi Windows, sarà Windows-1252. Questo non ha nulla di speciale come il controllo degli intervalli ASCII validi effettivi e non rileva UTF-16 anche sul segno dell'ordine dei byte.

La teoria alla base del rilevamento bit per bit è disponibile qui: https://ianthehenry.com/2015/1/17/decoding-utf-8/

Fondamentalmente, l'intervallo di bit del primo byte determina quanti dopo fanno parte dell'entità UTF-8. Questi byte dopo sono sempre nello stesso intervallo di bit.

/// <summary>
/// Reads a text file, and detects whether its encoding is valid UTF-8 or ascii.
/// If not, decodes the text using the given fallback encoding.
/// Bit-wise mechanism for detecting valid UTF-8 based on
/// https://ianthehenry.com/2015/1/17/decoding-utf-8/
/// </summary>
/// <param name="docBytes">The bytes read from the file.</param>
/// <param name="encoding">The default encoding to use as fallback if the text is detected not to be pure ascii or UTF-8 compliant. This ref parameter is changed to the detected encoding.</param>
/// <returns>The contents of the read file, as String.</returns>
public static String ReadFileAndGetEncoding(Byte[] docBytes, ref Encoding encoding)
{
    if (encoding == null)
        encoding = Encoding.GetEncoding(1252);
    Int32 len = docBytes.Length;
    // byte order mark for utf-8. Easiest way of detecting encoding.
    if (len > 3 && docBytes[0] == 0xEF && docBytes[1] == 0xBB && docBytes[2] == 0xBF)
    {
        encoding = new UTF8Encoding(true);
        // Note that even when initialising an encoding to have
        // a BOM, it does not cut it off the front of the input.
        return encoding.GetString(docBytes, 3, len - 3);
    }
    Boolean isPureAscii = true;
    Boolean isUtf8Valid = true;
    for (Int32 i = 0; i < len; ++i)
    {
        Int32 skip = TestUtf8(docBytes, i);
        if (skip == 0)
            continue;
        if (isPureAscii)
            isPureAscii = false;
        if (skip < 0)
        {
            isUtf8Valid = false;
            // if invalid utf8 is detected, there's no sense in going on.
            break;
        }
        i += skip;
    }
    if (isPureAscii)
        encoding = new ASCIIEncoding(); // pure 7-bit ascii.
    else if (isUtf8Valid)
        encoding = new UTF8Encoding(false);
    // else, retain given encoding. This should be an 8-bit encoding like Windows-1252.
    return encoding.GetString(docBytes);
}

/// <summary>
/// Tests if the bytes following the given offset are UTF-8 valid, and
/// returns the amount of bytes to skip ahead to do the next read if it is.
/// If the text is not UTF-8 valid it returns -1.
/// </summary>
/// <param name="binFile">Byte array to test</param>
/// <param name="offset">Offset in the byte array to test.</param>
/// <returns>The amount of bytes to skip ahead for the next read, or -1 if the byte sequence wasn't valid UTF-8</returns>
public static Int32 TestUtf8(Byte[] binFile, Int32 offset)
{
    // 7 bytes (so 6 added bytes) is the maximum the UTF-8 design could support,
    // but in reality it only goes up to 3, meaning the full amount is 4.
    const Int32 maxUtf8Length = 4;
    Byte current = binFile[offset];
    if ((current & 0x80) == 0)
        return 0; // valid 7-bit ascii. Added length is 0 bytes.
    Int32 len = binFile.Length;
    for (Int32 addedlength = 1; addedlength < maxUtf8Length; ++addedlength)
    {
        Int32 fullmask = 0x80;
        Int32 testmask = 0;
        // This code adds shifted bits to get the desired full mask.
        // If the full mask is [111]0 0000, then test mask will be [110]0 0000. Since this is
        // effectively always the previous step in the iteration I just store it each time.
        for (Int32 i = 0; i <= addedlength; ++i)
        {
            testmask = fullmask;
            fullmask += (0x80 >> (i+1));
        }
        // figure out bit masks from level
        if ((current & fullmask) == testmask)
        {
            if (offset + addedlength >= len)
                return -1;
            // Lookahead. Pattern of any following bytes is always 10xxxxxx
            for (Int32 i = 1; i <= addedlength; ++i)
            {
                if ((binFile[offset + i] & 0xC0) != 0x80)
                    return -1;
            }
            return addedlength;
        }
    }
    // Value is greater than the maximum allowed for utf8. Deemed invalid.
    return -1;
}

Inoltre non c'è l'ultima elseaffermazione dopo if ((current & 0xE0) == 0xC0) { ... } else if ((current & 0xF0) == 0xE0) { ... } else if ((current & 0xF0) == 0xE0) { ... } else if ((current & 0xF8) == 0xF0) { ... }. Suppongo che elsecaso sarebbe utf8 non valida: isUtf8Valid = false;. Vorresti?
Hal

@hal Ah, vero ... da allora ho aggiornato il mio codice con un sistema più generale (e più avanzato) che utilizza un loop che va fino a 3 ma che può essere tecnicamente modificato per continuare a loop (le specifiche non sono chiare su questo ; è possibile espandere UTF-8 fino a 6 byte aggiunti, credo, ma solo 3 sono utilizzati nelle implementazioni correnti), quindi non ho aggiornato questo codice.
Nyerguds il

@hal Aggiornato alla mia nuova soluzione. Il principio rimane lo stesso, ma le maschere di bit vengono create e controllate in un ciclo piuttosto che tutte esplicitamente scritte nel codice.
Nyerguds,

1

Ho trovato una nuova libreria su GitHub: CharsetDetector / UTF-unknown

Rilevatore di set di caratteri incorporato in C # - .NET Core 2-3, .NET standard 1-2 e .NET 4+

è anche una porta di Mozilla Universal Charset Detector basata su altri repository.

CharsetDetector / UTF-unknown ha una classe chiamata CharsetDetector.

CharsetDetector contiene alcuni metodi di rilevamento della codifica statica:

  • CharsetDetector.DetectFromFile()
  • CharsetDetector.DetectFromStream()
  • CharsetDetector.DetectFromBytes()

il risultato rilevato è nella classe DetectionResultcon attributo Detectedche è l'istanza della classe DetectionDetailcon gli attributi seguenti:

  • EncodingName
  • Encoding
  • Confidence

di seguito è riportato un esempio per mostrare l'utilizzo:

// Program.cs
using System;
using System.Text;
using UtfUnknown;

namespace ConsoleExample
{
    public class Program
    {
        public static void Main(string[] args)
        {
            string filename = @"E:\new-file.txt";
            DetectDemo(filename);
        }

        /// <summary>
        /// Command line example: detect the encoding of the given file.
        /// </summary>
        /// <param name="filename">a filename</param>
        public static void DetectDemo(string filename)
        {
            // Detect from File
            DetectionResult result = CharsetDetector.DetectFromFile(filename);
            // Get the best Detection
            DetectionDetail resultDetected = result.Detected;

            // detected result may be null.
            if (resultDetected != null)
            {
                // Get the alias of the found encoding
                string encodingName = resultDetected.EncodingName;
                // Get the System.Text.Encoding of the found encoding (can be null if not available)
                Encoding encoding = resultDetected.Encoding;
                // Get the confidence of the found encoding (between 0 and 1)
                float confidence = resultDetected.Confidence;

                if (encoding != null)
                {
                    Console.WriteLine($"Detection completed: {filename}");
                    Console.WriteLine($"EncodingWebName: {encoding.WebName}{Environment.NewLine}Confidence: {confidence}");
                }
                else
                {
                    Console.WriteLine($"Detection completed: {filename}");
                    Console.WriteLine($"(Encoding is null){Environment.NewLine}EncodingName: {encodingName}{Environment.NewLine}Confidence: {confidence}");
                }
            }
            else
            {
                Console.WriteLine($"Detection failed: {filename}");
            }
        }
    }
}

screenshot del risultato di esempio: inserisci qui la descrizione dell'immagine

Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.