Sì è una domanda molto frequente, e questa questione è vaga per me e poiché non ne so molto.
Ma vorrei un modo molto preciso per trovare un file Encoding. Così preciso come lo è Notepad ++.
Sì è una domanda molto frequente, e questa questione è vaga per me e poiché non ne so molto.
Ma vorrei un modo molto preciso per trovare un file Encoding. Così preciso come lo è Notepad ++.
Risposte:
La StreamReader.CurrentEncoding
proprietà restituisce raramente la codifica del file di testo corretta per me. Ho avuto più successo nel determinare l'endianness di un file, analizzando il suo byte order mark (BOM). Se il file non dispone di una distinta materiali, non è possibile determinare la codifica del file.
* AGGIORNATO 4/08/2020 per includere il rilevamento UTF-32LE e restituire la codifica corretta per UTF-32BE
/// <summary>
/// Determines a text file's encoding by analyzing its byte order mark (BOM).
/// Defaults to ASCII when detection of the text file's endianness fails.
/// </summary>
/// <param name="filename">The text file to analyze.</param>
/// <returns>The detected encoding.</returns>
public static Encoding GetEncoding(string filename)
{
// Read the BOM
var bom = new byte[4];
using (var file = new FileStream(filename, FileMode.Open, FileAccess.Read))
{
file.Read(bom, 0, 4);
}
// Analyze the BOM
if (bom[0] == 0x2b && bom[1] == 0x2f && bom[2] == 0x76) return Encoding.UTF7;
if (bom[0] == 0xef && bom[1] == 0xbb && bom[2] == 0xbf) return Encoding.UTF8;
if (bom[0] == 0xff && bom[1] == 0xfe && bom[2] == 0 && bom[3] == 0) return Encoding.UTF32; //UTF-32LE
if (bom[0] == 0xff && bom[1] == 0xfe) return Encoding.Unicode; //UTF-16LE
if (bom[0] == 0xfe && bom[1] == 0xff) return Encoding.BigEndianUnicode; //UTF-16BE
if (bom[0] == 0 && bom[1] == 0 && bom[2] == 0xfe && bom[3] == 0xff) return new UTF32Encoding(true, true); //UTF-32BE
// We actually have no idea what the encoding is if we reach this point, so
// you may wish to return null instead of defaulting to ASCII
return Encoding.ASCII;
}
StreamReader
, che l'implementazione è ciò che più la gente vuole. Creano nuove codifiche piuttosto che utilizzare gli Encoding.Unicode
oggetti esistenti , quindi i controlli di uguaglianza falliranno (cosa che potrebbe comunque accadere raramente perché, ad esempio, Encoding.UTF8
può restituire oggetti diversi), ma (1) non usa il formato UTF-7 davvero strano, (2) il valore predefinito è UTF-8 se non viene trovata alcuna BOM e (3) può essere sovrascritto per utilizzare una codifica predefinita diversa.
00 00 FE FF
Encoding.UTF32
FF FE 00 00
Il seguente codice funziona bene per me, usando la StreamReader
classe:
using (var reader = new StreamReader(fileName, defaultEncodingIfNoBom, true))
{
reader.Peek(); // you need this!
var encoding = reader.CurrentEncoding;
}
Il trucco sta nell'usare la Peek
chiamata, altrimenti .NET non ha fatto nulla (e non ha letto il preambolo, il BOM). Ovviamente, se usi qualsiasi altra ReadXXX
chiamata prima di controllare la codifica, funziona anche tu.
Se il file non ha BOM, defaultEncodingIfNoBom
verrà utilizzata la codifica. Esiste anche uno StreamReader senza questo metodo di sovraccarico (in questo caso, la codifica predefinita (ANSI) verrà utilizzata come defaultEncodingIfNoBom), ma ti consiglio di definire ciò che consideri la codifica predefinita nel tuo contesto.
L'ho testato con successo con file con BOM per UTF8, UTF16 / Unicode (LE & BE) e UTF32 (LE & BE). Non funziona per UTF7.
foreach($filename in $args) { $reader = [System.IO.StreamReader]::new($filename, [System.Text.Encoding]::default,$true); $peek = $reader.Peek(); $reader.currentencoding | select bodyname,encodingname; $reader.close() }
UTF-8 without BOM
Proverei i seguenti passaggi:
1) Controlla se c'è un Byte Order Mark
2) Controlla se il file è UTF8 valido
3) Usa la tabella codici "ANSI" locale (ANSI come la definisce Microsoft)
Il passaggio 2 funziona perché la maggior parte delle sequenze non ASCII nelle tabelle codici diverse da UTF8 non sono UTF8 valide.
Utf8Encoding
puoi passare un parametro aggiuntivo che determina se deve essere generata un'eccezione o se preferisci il danneggiamento silenzioso dei dati.
Controllare questo.
Questo è un port di Mozilla Universal Charset Detector e puoi usarlo in questo modo ...
public static void Main(String[] args)
{
string filename = args[0];
using (FileStream fs = File.OpenRead(filename)) {
Ude.CharsetDetector cdet = new Ude.CharsetDetector();
cdet.Feed(fs);
cdet.DataEnd();
if (cdet.Charset != null) {
Console.WriteLine("Charset: {0}, confidence: {1}",
cdet.Charset, cdet.Confidence);
} else {
Console.WriteLine("Detection failed.");
}
}
}
The library is subject to the Mozilla Public License Version 1.1 (the "License"). Alternatively, it may be used under the terms of either the GNU General Public License Version 2 or later (the "GPL"), or the GNU Lesser General Public License Version 2.1 or later (the "LGPL").
Fornire i dettagli di implementazione per i passaggi proposti da @CodesInChaos:
1) Controlla se c'è un Byte Order Mark
2) Controlla se il file è UTF8 valido
3) Usa la tabella codici "ANSI" locale (ANSI come la definisce Microsoft)
Il passaggio 2 funziona perché la maggior parte delle sequenze non ASCII nelle tabelle codici diverse da UTF8 non sono UTF8 valide. https://stackoverflow.com/a/4522251/867248 spiega la tattica in modo più dettagliato.
using System; using System.IO; using System.Text;
// Using encoding from BOM or UTF8 if no BOM found,
// check if the file is valid, by reading all lines
// If decoding fails, use the local "ANSI" codepage
public string DetectFileEncoding(Stream fileStream)
{
var Utf8EncodingVerifier = Encoding.GetEncoding("utf-8", new EncoderExceptionFallback(), new DecoderExceptionFallback());
using (var reader = new StreamReader(fileStream, Utf8EncodingVerifier,
detectEncodingFromByteOrderMarks: true, leaveOpen: true, bufferSize: 1024))
{
string detectedEncoding;
try
{
while (!reader.EndOfStream)
{
var line = reader.ReadLine();
}
detectedEncoding = reader.CurrentEncoding.BodyName;
}
catch (Exception e)
{
// Failed to decode the file using the BOM/UT8.
// Assume it's local ANSI
detectedEncoding = "ISO-8859-1";
}
// Rewind the stream
fileStream.Seek(0, SeekOrigin.Begin);
return detectedEncoding;
}
}
[Test]
public void Test1()
{
Stream fs = File.OpenRead(@".\TestData\TextFile_ansi.csv");
var detectedEncoding = DetectFileEncoding(fs);
using (var reader = new StreamReader(fs, Encoding.GetEncoding(detectedEncoding)))
{
// Consume your file
var line = reader.ReadLine();
...
reader.Peek()
posto di while (!reader.EndOfStream) { var line = reader.ReadLine(); }
reader.Peek()
non legge l'intero flusso. Ho scoperto che con flussi più grandi, Peek()
era inadeguato. Ho usato reader.ReadToEndAsync()
invece.
var Utf8EncodingVerifier = Encoding.GetEncoding("utf-8", new EncoderExceptionFallback(), new DecoderExceptionFallback());
viene utilizzata nel try
blocco durante la lettura di una riga. Se il codificatore non riesce ad analizzare il testo fornito (il testo non è codificato con utf8), Utf8EncodingVerifier genererà. L'eccezione viene rilevata e quindi sappiamo che il testo non è utf8 e il valore predefinito è ISO-8859-1
I seguenti codici sono i miei codici Powershell per determinare se alcuni file cpp o ho ml codificano con ISO-8859-1 (Latin-1) o UTF-8 senza BOM, se nessuno dei due si suppone che sia GB18030. Sono un cinese che lavora in Francia e MSVC salva come Latin-1 sul computer francese e salva come GB sul computer cinese, quindi questo mi aiuta a evitare problemi di codifica quando si scambiano file sorgente tra il mio sistema ei miei colleghi.
Il modo è semplice, se tutti i caratteri sono compresi tra x00-x7E, ASCII, UTF-8 e Latin-1 sono tutti uguali, ma se leggo un file non ASCII di UTF-8, troveremo il carattere speciale visualizzato , quindi prova a leggere con Latin-1. In Latin-1, tra \ x7F e \ xAF è vuoto, mentre GB usa full tra x00-xFF quindi se ne ho uno tra i due, non è Latin-1
Il codice è scritto in PowerShell, ma usa .net quindi è facile da tradurre in C # o F #
$Utf8NoBomEncoding = New-Object System.Text.UTF8Encoding($False)
foreach($i in Get-ChildItem .\ -Recurse -include *.cpp,*.h, *.ml) {
$openUTF = New-Object System.IO.StreamReader -ArgumentList ($i, [Text.Encoding]::UTF8)
$contentUTF = $openUTF.ReadToEnd()
[regex]$regex = '�'
$c=$regex.Matches($contentUTF).count
$openUTF.Close()
if ($c -ne 0) {
$openLatin1 = New-Object System.IO.StreamReader -ArgumentList ($i, [Text.Encoding]::GetEncoding('ISO-8859-1'))
$contentLatin1 = $openLatin1.ReadToEnd()
$openLatin1.Close()
[regex]$regex = '[\x7F-\xAF]'
$c=$regex.Matches($contentLatin1).count
if ($c -eq 0) {
[System.IO.File]::WriteAllLines($i, $contentLatin1, $Utf8NoBomEncoding)
$i.FullName
}
else {
$openGB = New-Object System.IO.StreamReader -ArgumentList ($i, [Text.Encoding]::GetEncoding('GB18030'))
$contentGB = $openGB.ReadToEnd()
$openGB.Close()
[System.IO.File]::WriteAllLines($i, $contentGB, $Utf8NoBomEncoding)
$i.FullName
}
}
}
Write-Host -NoNewLine 'Press any key to continue...';
$null = $Host.UI.RawUI.ReadKey('NoEcho,IncludeKeyDown');
.NET non è molto utile, ma puoi provare il seguente algoritmo:
Ecco la chiamata:
var encoding = FileHelper.GetEncoding(filePath);
if (encoding == null)
throw new Exception("The file encoding is not supported. Please choose one of the following encodings: UTF8/UTF7/iso-8859-1");
Ecco il codice:
public class FileHelper
{
/// <summary>
/// Determines a text file's encoding by analyzing its byte order mark (BOM) and if not found try parsing into diferent encodings
/// Defaults to UTF8 when detection of the text file's endianness fails.
/// </summary>
/// <param name="filename">The text file to analyze.</param>
/// <returns>The detected encoding or null.</returns>
public static Encoding GetEncoding(string filename)
{
var encodingByBOM = GetEncodingByBOM(filename);
if (encodingByBOM != null)
return encodingByBOM;
// BOM not found :(, so try to parse characters into several encodings
var encodingByParsingUTF8 = GetEncodingByParsing(filename, Encoding.UTF8);
if (encodingByParsingUTF8 != null)
return encodingByParsingUTF8;
var encodingByParsingLatin1 = GetEncodingByParsing(filename, Encoding.GetEncoding("iso-8859-1"));
if (encodingByParsingLatin1 != null)
return encodingByParsingLatin1;
var encodingByParsingUTF7 = GetEncodingByParsing(filename, Encoding.UTF7);
if (encodingByParsingUTF7 != null)
return encodingByParsingUTF7;
return null; // no encoding found
}
/// <summary>
/// Determines a text file's encoding by analyzing its byte order mark (BOM)
/// </summary>
/// <param name="filename">The text file to analyze.</param>
/// <returns>The detected encoding.</returns>
private static Encoding GetEncodingByBOM(string filename)
{
// Read the BOM
var byteOrderMark = new byte[4];
using (var file = new FileStream(filename, FileMode.Open, FileAccess.Read))
{
file.Read(byteOrderMark, 0, 4);
}
// Analyze the BOM
if (byteOrderMark[0] == 0x2b && byteOrderMark[1] == 0x2f && byteOrderMark[2] == 0x76) return Encoding.UTF7;
if (byteOrderMark[0] == 0xef && byteOrderMark[1] == 0xbb && byteOrderMark[2] == 0xbf) return Encoding.UTF8;
if (byteOrderMark[0] == 0xff && byteOrderMark[1] == 0xfe) return Encoding.Unicode; //UTF-16LE
if (byteOrderMark[0] == 0xfe && byteOrderMark[1] == 0xff) return Encoding.BigEndianUnicode; //UTF-16BE
if (byteOrderMark[0] == 0 && byteOrderMark[1] == 0 && byteOrderMark[2] == 0xfe && byteOrderMark[3] == 0xff) return Encoding.UTF32;
return null; // no BOM found
}
private static Encoding GetEncodingByParsing(string filename, Encoding encoding)
{
var encodingVerifier = Encoding.GetEncoding(encoding.BodyName, new EncoderExceptionFallback(), new DecoderExceptionFallback());
try
{
using (var textReader = new StreamReader(filename, encodingVerifier, detectEncodingFromByteOrderMarks: true))
{
while (!textReader.EndOfStream)
{
textReader.ReadLine(); // in order to increment the stream position
}
// all text parsed ok
return textReader.CurrentEncoding;
}
}
catch (Exception ex) { }
return null; //
}
}
Cerca qui c #
https://msdn.microsoft.com/en-us/library/system.io.streamreader.currentencoding%28v=vs.110%29.aspx
string path = @"path\to\your\file.ext";
using (StreamReader sr = new StreamReader(path, true))
{
while (sr.Peek() >= 0)
{
Console.Write((char)sr.Read());
}
//Test for the encoding after reading, or at least
//after the first read.
Console.WriteLine("The encoding used was {0}.", sr.CurrentEncoding);
Console.ReadLine();
Console.WriteLine();
}