IngleseFranceseSpagnolo

Ad


Favicon di OnWorks

ffmpeg-filters - Online nel cloud

Esegui filtri ffmpeg nel provider di hosting gratuito OnWorks su Ubuntu Online, Fedora Online, emulatore online Windows o emulatore online MAC OS

Questo è il comando ffmpeg-filters che può essere eseguito nel provider di hosting gratuito OnWorks utilizzando una delle nostre molteplici workstation online gratuite come Ubuntu Online, Fedora Online, emulatore online Windows o emulatore online MAC OS

PROGRAMMA:

NOME


filtri ffmpeg - filtri FFmpeg

DESCRIZIONE


Questo documento descrive filtri, sorgenti e sink forniti dalla libreria libavfilter.

FILTRO INTRODUZIONE


Il filtraggio in FFmpeg è abilitato tramite la libreria libavfilter.

In libavfilter, un filtro può avere più input e più output. Per illustrare il
cose che sono possibili, consideriamo il seguente filtergraph.

[Main]
input --> split ---------------------> overlay --> output
| ^
|[tmp] [capovolgi]|
+-----> crop -> vflip -------+

Questo filtergraph divide il flusso di input in due flussi, quindi invia un flusso attraverso il
ritaglia il filtro e il filtro vflip, prima di unirlo di nuovo con l'altro flusso di
sovrapponendolo sopra. È possibile utilizzare il seguente comando per ottenere ciò:

ffmpeg -i INPUT -vf "split [main][tmp]; [tmp] crop=iw:ih/2:0:0, vflip [flip]; [main][flip] overlay=0:H/2" OUTPUT

Il risultato sarà che la metà superiore del video viene rispecchiata nella metà inferiore del
uscita video.

I filtri nella stessa catena lineare sono separati da virgole e catene lineari distinte di
i filtri sono separati da punto e virgola. Nel nostro esempio, ritaglia, capovolgimento sono in una catena lineare,
dividere ed copertura sono separatamente in un altro. I punti in cui le catene lineari si uniscono sono
etichettati da nomi racchiusi tra parentesi quadre. Nell'esempio, il filtro diviso genera
due uscite che sono associate alle etichette [Main] ed [tpm].

Il flusso inviato alla seconda uscita di dividere, etichettato come [tpm], viene elaborato attraverso il
raccolto filtro, che ritaglia la metà inferiore del video e poi verticalmente
capovolto. Il copertura il filtro prende in ingresso la prima uscita invariata del filtro diviso
(che era etichettato come [Main]), e sovrapporre sulla sua metà inferiore l'uscita generata dal
ritaglia, capovolgimento catena di filtri.

Alcuni filtri accettano in input una lista di parametri: sono specificati dopo il nome del filtro
e un segno di uguale e sono separati l'uno dall'altro da due punti.

Esistono i cosiddetti source filtri che non dispongono di un ingresso audio/video e Lavello
filtri che non avrà uscita audio/video.

GRAFICO


I grafico2dot programma incluso nel FFmpeg strumenti la directory può essere utilizzata per analizzare a
descrizione del filtergraph ed emettere una corrispondente rappresentazione testuale nel punto
Lingua.

Invoca il comando:

grafico2punto -h

per vedere come si usa grafico2dot.

È quindi possibile passare la descrizione del punto al punto programma (dalla suite graphviz di
programmi) e ottenere una rappresentazione grafica del filtergraph.

Ad esempio la sequenza di comandi:

eco | \
tools/graph2dot -o graph.tmp && \
punto -Tpng grafico.tmp -o grafico.png && \
display grafico.png

può essere utilizzato per creare e visualizzare un'immagine che rappresenta il grafico descritto dal
GRAPH_DESCRIPTION corda. Nota che questa stringa deve essere un grafico completo e autonomo,
con i suoi input e output definiti esplicitamente. Ad esempio se la tua riga di comando è off
il modulo:

ffmpeg -i file in -vf scale=640:360 file in uscita

il tuo GRAPH_DESCRIPTION la stringa dovrà essere della forma:

nullsrc,scale=640:360,nullsink

potrebbe anche essere necessario impostare il nullsrc parametri e aggiungere a formato filtrare per
simulare un file di input specifico.

FILTROGRAFO DESCRIZIONE


Un filtergraph è un grafico diretto di filtri collegati. Può contenere cicli, e lì
possono essere più collegamenti tra una coppia di filtri. Ogni collegamento ha un pad di input su un lato
collegandolo a un filtro da cui prende l'ingresso e un pad di uscita dall'altro
collegandolo a un filtro che ne accetti l'uscita.

Ogni filtro in un filtergraph è un'istanza di una classe di filtri registrata nel
applicazione, che definisce le caratteristiche e il numero di pad di input e output del
filtro.

Un filtro senza pad di input è chiamato "sorgente" e un filtro senza pad di output è
chiamato "lavandino".

Filtro grafico sintassi
Un filtergraph ha una rappresentazione testuale, che è riconosciuta dal -filtro/-vf/-af ed
-filtro_complesso opzioni ffmpeg ed -vf/-af in ffplayE dal
Funzione "avfilter_graph_parse_ptr()" definita in libavfilter/avfilter.h.

Una filterchain consiste in una sequenza di filtri collegati, ognuno connesso al
precedente nella sequenza. Una filterchain è rappresentata da un elenco di ","-separated
descrizioni dei filtri

Un filtergraph è costituito da una sequenza di filterchain. Una sequenza di catene di filtri è
rappresentato da un elenco di descrizioni di filterchain separate da ";".

Un filtro è rappresentato da una stringa della forma:
[in_link_1]...[in_link_N]nome_filtro=argomenti[out_link_1]...[out_link_M]

nome_filtro è il nome della classe del filtro di cui il filtro descritto è un'istanza
of, e deve essere il nome di una delle classi di filtri registrate nel programma. Il
il nome della classe del filtro è facoltativamente seguito da una stringa "=argomenti".

argomenti è una stringa che contiene i parametri usati per inizializzare il filtro
esempio. Può avere una delle due forme:

· Un elenco separato da ':' di chiave=valore coppie.

· Un elenco separato da ':' di APPREZZIAMO. In questo caso, si presume che le chiavi siano l'opzione
nomi nell'ordine in cui sono dichiarati. Ad esempio, il filtro "fade" dichiara tre opzioni in
quest'ordine -- Digitare, start_frame ed nb_frames. Quindi l'elenco dei parametri tra:0:30 si intende
che il valore in è assegnato all'opzione Digitare, 0 a start_frame ed 30 a
nb_frames.

· Un elenco separato da ':' di diretti misti APPREZZIAMO e lungo chiave=valore coppie. il diretto APPREZZIAMO
deve precedere il chiave=valore coppie e seguire lo stesso ordine dei vincoli del
punto precedente. Il seguente chiave=valore le coppie possono essere impostate in qualsiasi ordine preferito.

Se il valore dell'opzione stessoèun elenco di elementi (ad esempio il filtro "formato" accetta un elenco di
formati pixel), gli elementi nell'elenco sono generalmente separati da |.

L'elenco degli argomenti può essere citato utilizzando il carattere ' come segno iniziale e finale, e
il personaggio \ per l'escape dei caratteri all'interno del testo citato; altrimenti l'argomento
la stringa è considerata terminata quando il carattere speciale successivo (appartenente al set
[]=;,) si incontra.

Il nome e gli argomenti del filtro sono facoltativamente preceduti e seguiti da un elenco di
etichette di collegamento. Un'etichetta di collegamento consente di denominare un collegamento e associarlo a un output di filtro
o input pad. Le etichette precedenti in_link_1 ... in_link_N, sono associati al filtro
pad di input, le seguenti etichette out_link_1 ... out_link_M, sono associati all'uscita
pastiglie.

Quando due etichette di collegamento con lo stesso nome vengono trovate nel filtergraph, un collegamento tra il
viene creato il pad di input e output corrispondente.

Se un pad di uscita non è etichettato, è collegato per impostazione predefinita al primo ingresso non etichettato
pad del filtro successivo nella filterchain. Ad esempio nella catena di filtri

nullsrc, split[L1], [L2]overlay, nullsink

l'istanza del filtro diviso ha due pad di output e l'istanza del filtro di sovrapposizione due input
pastiglie. Il primo pad di output di split è etichettato "L1", il primo pad di input di overlay è
etichettato "L2", e il secondo pad di uscita di split è collegato al secondo pad di ingresso di
overlay, entrambi senza etichetta.

Nella descrizione di un filtro, se l'etichetta di input del primo filtro non è specificata, "in" è
presunto; se l'etichetta di output dell'ultimo filtro non è specificata, si assume "out".

In una catena di filtri completa, tutti i pad di ingresso e uscita del filtro non etichettati devono essere
collegato. Un filtergraph è considerato valido se tutti i pad di input e output del filtro di
tutte le catene di filtri sono collegate.

Libavfilter si inserirà automaticamente scala filtri in cui è richiesta la conversione del formato.
È possibile specificare flag swscale per quegli scaler inseriti automaticamente da
anteponendo "sws_flags=bandiere;" alla descrizione del filtergraph.

Ecco una descrizione BNF della sintassi filtergraph:

::= sequenza di caratteri alfanumerici e '_'
::= "[" "]"
::= [ ]
::= sequenza di caratteri (eventualmente tra virgolette)
::= [ ] ["=" ] [ ]
::= [, ]
::= [sws_flags= ;] [; ]

Note on filtro grafico fuga
La composizione della descrizione del filtergraph comporta diversi livelli di escape. Vedere , il "Citazione
ed in fuga" pagina in , il ffmpeg-utils(1) Manuale per maggiori informazioni su
procedura di fuga impiegata.

Un'escape di primo livello influisce sul contenuto di ciascun valore di opzione di filtro, che può contenere
il carattere speciale ":" usato per separare i valori, o uno dei caratteri di escape "\'".

Un'escape di secondo livello interessa l'intera descrizione del filtro, che può contenere il
caratteri di escape "\'" o i caratteri speciali "[],;" utilizzato dal filtergraph
descrizione.

Infine, quando specifichi un filtergraph su una riga di comando della shell, devi eseguire a
terzo livello di escape per i caratteri speciali della shell contenuti al suo interno.

Ad esempio, considera la seguente stringa da incorporare nel DrawText filtro
descrizione testo valore:

questa è una 'stringa': può contenere uno o più caratteri speciali

Questa stringa contiene il carattere di escape speciale "'" e il carattere speciale ":", quindi
deve essere evaso in questo modo:

text=questa è una \'string\'\: può contenere uno o più caratteri speciali

È necessario un secondo livello di escape quando si incorpora la descrizione del filtro in a
descrizione del filtergraph, per sfuggire a tutti i caratteri speciali del filtergraph. così
l'esempio sopra diventa:

drawtext=text=questa è una \\\'string\\\'\\: può contenere uno\, o più\, caratteri speciali

(nota che oltre ai caratteri speciali di escape "\'", anche "," deve essere
sfuggito).

Infine è necessario un ulteriore livello di escape quando si scrive la descrizione del filtergraph
in un comando di shell, che dipende dalle regole di escape della shell adottata. Per esempio,
supponendo che "\" sia speciale e debba essere eseguito l'escape con un altro "\", la stringa precedente
risulterà infine:

-vf "drawtext=text=questa è una \\\\\\'string\\\\\\'\\\\: può contenere uno\\, o più\\, caratteri speciali"

SEQUENZA TEMPORALE LA MODIFICA


Alcuni filtri supportano un generico enable opzione. Per i filtri che supportano la modifica della timeline,
questa opzione può essere impostata su un'espressione che viene valutata prima di inviare un frame al
filtro. Se la valutazione è diversa da zero il filtro sarà abilitato, altrimenti il ​​frame
verrà inviato invariato al filtro successivo nel filtergraph.

L'espressione accetta i seguenti valori:

t timestamp espresso in secondi, NAN se il timestamp di input è sconosciuto

n numero sequenziale del frame di input, a partire da 0

inviare la posizione nel file del frame di input, NAN se sconosciuto

w
h larghezza e altezza del frame di input se video

Inoltre, questi filtri supportano an enable comando che può essere utilizzato per ridefinire il
espressione.

Come qualsiasi altra opzione di filtro, il enable opzione segue le stesse regole.

Ad esempio, per abilitare un filtro sfocatura (sfocatura) da 10 secondi a 3 minuti, e a
curve filtro a partire da 3 secondi:

smartblur = enable='between(t,10,3*60)',
curve = enable='gte(t,3)' : preset=cross_process

AUDIO FILTRI


Quando configuri la tua build FFmpeg, puoi disabilitare qualsiasi filtro esistente usando
"--disabilita-filtri". L'output di configurazione mostrerà i filtri audio inclusi nel tuo
costruire.

Di seguito è riportata una descrizione dei filtri audio attualmente disponibili.

dissolvenza incrociata
Applica dissolvenza incrociata da un flusso audio in ingresso a un altro flusso audio in ingresso. La Croce
la dissolvenza viene applicata per la durata specificata verso la fine del primo flusso.

Il filtro accetta le seguenti opzioni:

nb_campioni, ns
Specificare il numero di campioni per i quali l'effetto dissolvenza incrociata deve durare. Alla fine
dell'effetto dissolvenza incrociata il primo audio in ingresso sarà completamente silenzioso. L'impostazione predefinita è
44100

durata, d
Specificare la durata dell'effetto dissolvenza incrociata. Vedere , il Ora durata pagina in , il
ffmpeg-utils(1) Manuale per la sintassi accettata. Per impostazione predefinita, la durata è determinata
by nb_campioni. Se impostata questa opzione viene utilizzata al posto di nb_campioni.

sovrapposizione, o
Se la fine del primo flusso si sovrappone all'inizio del secondo flusso. L'impostazione predefinita è abilitata.

curva1
Imposta la curva per la transizione della dissolvenza incrociata per il primo flusso.

curva2
Imposta la curva per la transizione della dissolvenza incrociata per il secondo flusso.

Per la descrizione dei tipi di curve disponibili vedere svanire descrizione del filtro

Esempi

· Dissolvenza incrociata da un ingresso all'altro:

ffmpeg -i first.flac -i second.flac -filter_complex crossingfade=d=10:c1=exp:c2=exp output.flac

· Dissolvenza incrociata da un ingresso all'altro ma senza sovrapposizioni:

ffmpeg -i first.flac -i second.flac -filter_complex crossingfade=d=10:o=0:c1=exp:c2=exp output.flac

un ritardo
Ritarda uno o più canali audio.

I campioni nel canale ritardato sono pieni di silenzio.

Il filtro accetta la seguente opzione:

ritardi
Imposta l'elenco dei ritardi in millisecondi per ciascun canale separati da '|'. Almeno uno
deve essere fornito un ritardo maggiore di 0. I ritardi non utilizzati verranno ignorati silenziosamente. Se
il numero di ritardi dati è inferiore al numero di canali che faranno tutti i canali rimanenti
non essere ritardato.

Esempi

· Ritarda il primo canale di 1.5 secondi, il terzo canale di 0.5 secondi e lascia il
secondo canale (ed eventuali altri canali eventualmente presenti) invariato.

ritardo=1500|0|500

eco
Applicare l'eco all'audio in ingresso.

Gli echi sono suoni riflessi e possono verificarsi naturalmente tra le montagne (e talvolta grandi
edifici) quando si parla o si urla; gli effetti di eco digitale emulano questo comportamento e sono
spesso usato per aiutare a riempire il suono di un singolo strumento o voce. La differenza di fuso orario
tra il segnale originale e la riflessione è il "ritardo", e il volume del
segnale riflesso è il "decadimento". Echi multipli possono avere ritardi e decadimenti diversi.

Segue una descrizione dei parametri accettati.

in_guadagno
Imposta il guadagno in ingresso del segnale riflesso. Il valore predefinito è 0.6.

out_gain
Imposta il guadagno in uscita del segnale riflesso. Il valore predefinito è 0.3.

ritardi
Imposta l'elenco degli intervalli di tempo in millisecondi tra il segnale originale e le riflessioni
separati da '|'. L'intervallo consentito per ogni "ritardo" è "(0 - 90000.0]". Il valore predefinito è 1000.

decadimenti
Imposta l'elenco dei volumi dei segnali riflessi separati da '|'. Intervallo consentito per ciascuno
"decadimento" è "(0 - 1.0]". Il valore predefinito è 0.5.

Esempi

· Fai sembrare che ci siano il doppio degli strumenti che stanno effettivamente suonando:

eco=0.8:0.88:60:0.4

· Se il ritardo è molto breve, suona come un robot (metallico) che riproduce musica:

eco=0.8:0.88:6:0.4

· Un ritardo più lungo sembrerà un concerto all'aperto in montagna:

eco=0.8:0.9:1000:0.3

· Come sopra ma con una montagna in più:

aecho=0.8:0.9:1000|1800:0.3|0.25

aeval
Modificare un segnale audio in base alle espressioni specificate.

Questo filtro accetta una o più espressioni (una per ogni canale), che vengono valutate
e utilizzato per modificare un segnale audio corrispondente.

Accetta i seguenti parametri:

espressione
Imposta l'elenco delle espressioni separate da '|' per ciascun canale separato. Se il numero di
canali di ingresso è maggiore del numero di espressioni, l'ultima specificata
l'espressione viene utilizzata per i restanti canali di uscita.

layout_canale, c
Imposta il layout del canale di uscita. Se non specificato, il layout del canale è specificato dal
numero di espressioni. Se impostato su stesso, utilizzerà per impostazione predefinita lo stesso canale di ingresso
layout.

Ogni espressione in espressione può contenere le seguenti costanti e funzioni:

ch numero di canale dell'espressione corrente

n numero del campione valutato, a partire da 0

s frequenza di campionamento

t tempo del campione valutato espresso in secondi

nb_in_canali
nb_out_channels
ingresso e uscita numero di canali

valore(CH)
il valore del canale di ingresso con il numero CH

Nota: questo filtro è lento. Per un'elaborazione più veloce dovresti usare un filtro dedicato.

Esempi

· Mezzo volume:

aeval=val(ch)/2:c=stesso

· Inverti fase del secondo canale:

medio=val(0)|-val(1)

svanire
Applica l'effetto di dissolvenza in entrata/uscita all'audio in ingresso.

Segue una descrizione dei parametri accettati.

Digitare, t
Specificare il tipo di effetto, può essere "in" per una dissolvenza in apertura o "out" per una dissolvenza in chiusura
effetto. L'impostazione predefinita è "in".

inizio_campione, ss
Specificare il numero del campione iniziale per iniziare ad applicare l'effetto dissolvenza. Predefinito
è 0.

nb_campioni, ns
Specificare il numero di campioni per i quali l'effetto dissolvenza deve durare. Alla fine di
effetto dissolvenza l'audio in uscita avrà lo stesso volume dell'audio in ingresso, al
alla fine della transizione in dissolvenza l'audio in uscita sarà silenzioso. Il valore predefinito è 44100.

Ora di inizio, st
Specificare l'ora di inizio dell'effetto dissolvenza. Il valore predefinito è 0. Il valore deve essere specificato
come durata temporale; vedere , il Ora durata pagina in , il ffmpeg-utils(1) Manuale per
la sintassi accettata. Se impostata questa opzione viene utilizzata al posto di campione_iniziale.

durata, d
Specificare la durata dell'effetto dissolvenza. Vedere , il Ora durata pagina in , il
ffmpeg-utils(1) Manuale per la sintassi accettata. Al termine dell'effetto di dissolvenza in entrata il
l'audio in uscita avrà lo stesso volume dell'audio in ingresso, alla fine della dissolvenza in uscita
transizione l'audio in uscita sarà silenzio. Per impostazione predefinita, la durata è determinata da
nb_campioni. Se impostata questa opzione viene utilizzata al posto di nb_campioni.

curva
Imposta la curva per la transizione della dissolvenza.

Accetta i seguenti valori:

tri seleziona pendenza triangolare, lineare (predefinito)

qsin
seleziona un quarto di onda sinusoidale

hsin
seleziona metà dell'onda sinusoidale

ispirazione
seleziona l'onda sinusoidale esponenziale

ceppo seleziona logaritmica

cognato
seleziona la parabola invertita

in quanto seleziona quadratica

cubo seleziona cubica

squ seleziona radice quadrata

cbr seleziona radice cubica

da seleziona la parabola

exp seleziona esponenziale

iqsin
seleziona un quarto di onda sinusoidale invertita

ihsin
seleziona la metà invertita dell'onda sinusoidale

des
seleziona il posto a doppia esponenziale

desi
seleziona il sigmoide doppio esponenziale

Esempi

· Dissolvenza nei primi 15 secondi di audio:

afade=t=in:ss=0:d=15

· Dissolvenza degli ultimi 25 secondi di un audio di 900 secondi:

afade=t=fuori:st=875:d=25

formato
Imposta i limiti del formato di output per l'audio in ingresso. Il quadro negozierà di più
formato appropriato per ridurre al minimo le conversioni.

Accetta i seguenti parametri:

campione_fmts
Un elenco separato da '|' di formati campione richiesti.

sample_rates
Un elenco separato da '|' delle frequenze di campionamento richieste.

layout_canale
Un elenco separato da '|' di layout di canale richiesti.

See , il canale disposizione pagina in , il ffmpeg-utils(1) Manuale per la sintassi richiesta.

Se un parametro viene omesso, tutti i valori sono consentiti.

Forza l'output su stereo a 8 bit senza segno oa 16 bit con segno

aformat=sample_fmts=u8|s16:channel_layouts=stereo

tutto passa
Applicare un filtro passante bipolare con frequenza centrale (in Hz) frequenzae filtro-
larghezza larghezza. Un filtro passa tutto cambia la frequenza dell'audio alla relazione di fase
senza cambiare la sua frequenza al rapporto di ampiezza.

Il filtro accetta le seguenti opzioni:

frequenza, f
Imposta la frequenza in Hz.

larghezza_tipo
Imposta il metodo per specificare la larghezza di banda del filtro.

h Hz

q Fattore Q

o ottava

s pendenza

larghezza, w
Specificare la larghezza di banda di un filtro in unità width_type.

unire
Unisci due o più flussi audio in un unico flusso multicanale.

Il filtro accetta le seguenti opzioni:

Ingressi
Imposta il numero di ingressi. Il valore predefinito è 2.

Se i layout dei canali degli ingressi sono disgiunti, e quindi compatibili, il canale
il layout dell'output verrà impostato di conseguenza e i canali verranno riordinati come
necessario. Se i layout dei canali degli ingressi non sono disgiunti, l'uscita avrà tutto
i canali del primo ingresso poi tutti i canali del secondo ingresso, in quest'ordine,
e il layout del canale dell'uscita sarà il valore predefinito corrispondente al totale
numero di canali.

Ad esempio, se il primo ingresso è in 2.1 (FL+FR+LF) e il secondo ingresso è FC+BL+BR,
quindi l'uscita sarà in 5.1, con i canali nel seguente ordine: a1, a2, b1, a3,
b2, b3 (a1 è il primo canale del primo ingresso, b1 è il primo canale del secondo
ingresso).

D'altra parte, se entrambi gli ingressi sono in stereo, i canali di uscita saranno quelli di default
ordine: a1, a2, b1, b2 e il layout del canale sarà arbitrariamente impostato su 4.0, che può o
potrebbe non essere il valore atteso.

Tutti gli input devono avere la stessa frequenza di campionamento e formato.

Se gli ingressi non hanno la stessa durata, l'uscita si fermerà con la più breve.

Esempi

· Unisci due file mono in un flusso stereo:

amovie=sinistra.wav [l] ; amovie=right.mp3 [r] ; [l] [r] unire

· Fusioni multiple assumendo 1 flusso video e 6 flussi audio in input.mkv:

ffmpeg -i input.mkv -filter_complex "[0:1][0:2][0:3][0:4][0:5][0:6] amerge=input=6" -c:a pcm_s16le output.mkv

un misto
Mixa più ingressi audio in un'unica uscita.

Nota che questo filtro supporta solo campioni float (il unire ed padella filtri audio
supportano molti formati). Se la un misto l'input ha campioni interi quindi sonocampione sarà
inserito automaticamente per eseguire la conversione in campioni float.

Per esempio

ffmpeg -i INPUT1 -i INPUT2 -i INPUT3 -filter_complex amix=input=3:duration=first:dropout_transition=3 OUTPUT

mescolerà 3 flussi audio in ingresso in una singola uscita con la stessa durata del primo
ingresso e un tempo di transizione alla diseccitazione di 3 secondi.

Accetta i seguenti parametri:

Ingressi
Il numero di ingressi. Se non specificato, il valore predefinito è 2.

durata
Come determinare la fine del flusso.

più lunga
La durata dell'input più lungo. (predefinito)

più breve
La durata dell'input più breve.

prima di tutto
La durata del primo input.

dropout_transition
Il tempo di transizione, in secondi, per la rinormalizzazione del volume al termine di un flusso di input.
Il valore predefinito è 2 secondi.

annullare
Passa la sorgente audio invariata all'uscita.

apad
Riempi la fine di un flusso audio con il silenzio.

Questo può essere usato insieme a ffmpeg -più breve per estendere i flussi audio alla stessa lunghezza
come flusso video.

Segue una descrizione delle opzioni accettate.

dimensione_pacchetto
Imposta la dimensione del pacchetto di silenzio. Il valore predefinito è 4096.

pad_len
Imposta il numero di campioni di silenzio da aggiungere alla fine. Dopo aver raggiunto il valore,
il flusso è terminato. Questa opzione si esclude a vicenda con intero_len.

intero_len
Imposta il numero totale minimo di campioni nel flusso audio in uscita. Se il valore è
più lungo della lunghezza dell'audio in ingresso, il silenzio viene aggiunto alla fine, fino a quando il valore è
raggiunto. Questa opzione si esclude a vicenda con pad_len.

Se né il pad_len né l' intero_len l'opzione è impostata, il filtro aggiungerà silenzio al
fine del flusso di input a tempo indeterminato.

Esempi

· Aggiungere 1024 campioni di silenzio alla fine dell'input:

apad=pad_len=1024

· Assicurati che l'uscita audio contenga almeno 10000 campioni, riempi l'ingresso con
silenzio se richiesto:

apad=intero_len=10000

· Utilizzo ffmpeg per riempire l'ingresso audio con il silenzio, in modo che il flusso video sarà sempre
risulta il più breve e verrà convertito fino alla fine nel file di output quando si utilizza
, il più breve opzione:

ffmpeg -i VIDEO -i AUDIO -filter_complex "[1:0]apad" -USCITA più breve

afase
Aggiungi un effetto di phasing all'audio in ingresso.

Un filtro phaser crea una serie di picchi e depressioni nello spettro di frequenza. Il
posizione dei picchi e degli avvallamenti sono modulati in modo che varino nel tempo, creando a
effetto travolgente.

Segue una descrizione dei parametri accettati.

in_guadagno
Imposta il guadagno in ingresso. Il valore predefinito è 0.4.

out_gain
Imposta il guadagno in uscita. Il valore predefinito è 0.74

ritardo
Imposta il ritardo in millisecondi. Il valore predefinito è 3.0.

decadimento
Imposta il decadimento. Il valore predefinito è 0.4.

velocità
Imposta la velocità di modulazione in Hz. Il valore predefinito è 0.5.

Digitare
Imposta il tipo di modulazione. L'impostazione predefinita è triangolare.

Accetta i seguenti valori:

triangolare, t
sinusoidale, s

sonocampione
Ricampionare l'audio in ingresso ai parametri specificati, utilizzando la libreria libswresample. Se
non sono specificati, il filtro convertirà automaticamente tra il suo input e
produzione.

Questo filtro è anche in grado di allungare/comprimere i dati audio per farli corrispondere ai timestamp
o per iniettare silenzio / tagliare l'audio per farlo corrispondere ai timestamp, fai una combinazione di
entrambi o nessuno dei due.

Il filtro accetta la sintassi [frequenza di campionamento:]ricampionatore_opzioni, Dove frequenza di campionamento esprime
una frequenza di campionamento e ricampionatore_opzioni è un elenco di chiave=APPREZZIAMO coppie, separate da ":". Vedere
il manuale ffmpeg-resampler per l'elenco completo delle opzioni supportate.

Esempi

· Ricampionare l'audio in ingresso a 44100Hz:

arecampione=44100

· Allunga/comprimi i campioni ai timestamp indicati, con un massimo di 1000 campioni per
secondo compenso:

aresample=asincrono=1000

asetncampioni
Imposta il numero di campioni per ogni fotogramma audio in uscita.

L'ultimo pacchetto di output può contenere un numero diverso di campioni, poiché il filtro si svuota
tutti i campioni rimanenti quando il segnale audio in ingresso termina.

Il filtro accetta le seguenti opzioni:

nb_out_campioni, n
Imposta il numero di fotogrammi per ogni fotogramma audio in uscita. Il numero è inteso come il
numero di campioni per ogni canale. Il valore predefinito è 1024.

pad, p
Se impostato a 1, il filtro riempirà di zeri l'ultimo fotogramma audio, in modo che l'ultimo
frame conterrà lo stesso numero di campioni dei precedenti. Il valore predefinito è
1.

Ad esempio, per impostare il numero di campioni per frame su 1234 e disabilitare il riempimento per il
ultimo fotogramma, usa:

asetncampioni=n=1234:p=0

aserate
Imposta la frequenza di campionamento senza alterare i dati PCM. Ciò si tradurrà in un cambiamento di velocità
e passo.

Il filtro accetta le seguenti opzioni:

frequenza di campionamento, r
Imposta la frequenza di campionamento in uscita. L'impostazione predefinita è 44100 Hz.

ashowinfo
Mostra una riga contenente varie informazioni per ciascun frame audio in ingresso. L'audio in ingresso è
non modificato.

La riga mostrata contiene una sequenza di coppie chiave/valore del modulo chiave:APPREZZIAMO.

Nell'output vengono visualizzati i seguenti valori:

n Il numero (sequenziale) del frame di input, a partire da 0.

pts Il timestamp di presentazione del frame di input, in unità di base dei tempi; la base dei tempi
dipende dal pad di ingresso del filtro e di solito è 1/frequenza di campionamento.

pts_time
Il timestamp di presentazione del frame di input in secondi.

inviare posizione del frame nel flusso di input, -1 se questa informazione non è disponibile
e/o privi di significato (ad esempio in caso di audio sintetico)

FMT Il formato campione.

layout
La disposizione del canale.

tasso
La frequenza di campionamento per il fotogramma audio.

nb_campioni
Il numero di campioni (per canale) nel frame.

checksum
Il checksum Adler-32 (stampato in esadecimale) dei dati audio. Per l'audio planare,
i dati vengono trattati come se tutti i piani fossero concatenati.

checksum_aereo
Un elenco di checksum Adler-32 per ogni piano dati.

astat
Visualizza informazioni statistiche nel dominio del tempo sui canali audio. Le statistiche sono
calcolato e visualizzato per ciascun canale audio e, ove applicabile, un dato complessivo
è anche dato.

Accetta la seguente opzione:

lunghezza
Finestra di breve durata in secondi, utilizzata per misurazioni RMS di picco e valle. L'impostazione predefinita è
0.05 (50 millisecondi). L'intervallo consentito è "[0.1 - 10]".

metadati
Imposta l'inserimento dei metadati. Tutte le chiavi dei metadati sono precedute da "lavfi.astats.X",
dove "X" è il numero del canale a partire da 1 o la stringa "Overall". L'impostazione predefinita è disabilitata.

I tasti disponibili per ogni canale sono: DC_offset Min_level Max_level Min_difference
Max_difference Differenza_media Livello_di picco RMS_peak RMS_trough Fattore_di cresta Fattore_piatto
Conteggio_picco Profondità_bit

e per Complessivo: DC_offset Min_level Max_level Min_difference Max_difference
Differenza_media Livello_di picco RMS_level RMS_peak RMS_trough Flat_factor Peak_count
Bit_depth Numero_di_campioni

Ad esempio, la chiave completa assomiglia a questo "lavfi.astats.1.DC_offset" o questo
"lavfi.astats.Overall.Peak_count".

Per la descrizione di cosa significa ogni tasto leggi sotto.

azzerare
Imposta il numero di frame dopo il quale le statistiche verranno ricalcolate. L'impostazione predefinita è
Disabilitato.

Segue una descrizione di ciascun parametro mostrato:

DC offset
Spostamento di ampiezza media da zero.

Min livello
Livello minimo del campione.

Max livello
Livello massimo del campione.

Min differenza
Differenza minima tra due campioni consecutivi.

Max differenza
Differenza massima tra due campioni consecutivi.

Significare differenza
Differenza media tra due campioni consecutivi. La media di ogni differenza
tra due campioni consecutivi.

Corrente di livello dB
RMS livello dB
Picco standard e livello RMS misurati in dBFS.

RMS picco dB
RMS depressione dB
Valori di picco e minimo per il livello RMS misurati in una breve finestra.

cresta fattore
Rapporto standard tra picco e livello RMS (nota: non in dB).

Piatto fattore
Planarità (cioè campioni consecutivi con lo stesso valore) del segnale al suo picco
livelli (cioè sia Min livello or Max livello).

Corrente di contare
Numero di occasioni (non il numero di campioni) che il segnale ha raggiunto neanche Min
livello or Max livello.

Po profondità
Profondità di bit complessiva dell'audio. Numero di bit utilizzati per ogni campione.

astreamsync
Inoltra due flussi audio e controlla l'ordine in cui vengono inoltrati i buffer.

Il filtro accetta le seguenti opzioni:

espr, e
Imposta l'espressione decidendo quale stream deve essere inoltrato successivamente: se il risultato è
negativo, viene inoltrato il primo flusso; se il risultato è positivo o nullo, il secondo
flusso viene inoltrato. Può utilizzare le seguenti variabili:

b1 b2
numero di buffer inoltrati finora su ogni stream

s1 s2
numero di campioni inoltrati finora su ogni flusso

t1 t2
timestamp corrente di ogni stream

Il valore predefinito è "t1-t2", che significa inoltrare sempre il flusso che ha a
marca temporale più piccola.

Esempi

Stress-test "merge" inviando in modo casuale buffer sull'input sbagliato, evitando allo stesso tempo
molto di una desincronizzazione:

amovie=file.ogg [a] ; film=file.mp3 [b] ;
[a] [b] astreamsync=(2*casuale(1))-1+tanh(5*(t1-t2)) [a2] [b2] ;
[a2] [b2] unire

asincroni
Sincronizzare i dati audio con i timestamp premendoli/allungandoli e/o rilasciandoli
campioni/aggiungendo silenzio quando necessario.

Questo filtro non è costruito per impostazione predefinita, per favore usa sonocampione per stringere/allungare.

Accetta i seguenti parametri:

compensare
Abilita l'estensione/compressione dei dati per farli corrispondere ai timestamp. Disabilitato da
predefinito. Quando disabilitato, gli intervalli di tempo sono coperti dal silenzio.

min_delta
La differenza minima tra timestamp e dati audio (in secondi) da attivare
aggiungere/eliminare campioni. Il valore predefinito è 0.1. Se ottieni una sincronizzazione imperfetta con
questo filtro, prova a impostare questo parametro su 0.

comp_max
La compensazione massima in campioni al secondo. Rilevante solo con compensa=1. Il
il valore predefinito è 500.

primi_punti
Supponiamo che il primo PTS dovrebbe essere questo valore. La base dei tempi è 1/frequenza di campionamento. Questo
consente il riempimento/ritaglio all'inizio del flusso. Per impostazione predefinita, nessuna ipotesi è
realizzato in base al PTS previsto del primo fotogramma, quindi non viene eseguita alcuna imbottitura o ritaglio. Per
esempio, questo potrebbe essere impostato su 0 per riempire l'inizio con il silenzio se un flusso audio
inizia dopo il flusso video o per tagliare eventuali campioni con un PTS negativo a causa di
ritardo dell'encoder.

a tempo
Regola il tempo dell'audio.

Il filtro accetta esattamente un parametro, il tempo audio. Se non specificato allora il
filtro assumerà il tempo nominale 1.0. Il tempo deve essere nell'intervallo [0.5, 2.0].

Esempi

· Rallenta l'audio all'80% del tempo:

ritmo=0.8

· Per accelerare l'audio al 125% del tempo:

ritmo=1.25

un assetto
Tagliare l'input in modo che l'output contenga una sottoparte continua dell'input.

Accetta i seguenti parametri:

inizia a
Timestamp (in secondi) dell'inizio della sezione da conservare. Cioè il campione audio con
il timestamp inizia a sarà il primo campione nell'output.

fine Specificare l'ora del primo campione audio che verrà rilasciato, ovvero il campione audio
immediatamente precedente a quello con il timestamp fine sarà l'ultimo campione in
produzione.

start_pts
Uguale a inizia a, tranne che questa opzione imposta il timestamp di inizio in campioni invece di
secondi.

end_pts
Uguale a fine, tranne che questa opzione imposta il timestamp di fine in campioni anziché in secondi.

durata
La durata massima dell'uscita in secondi.

campione_iniziale
Il numero del primo campione che dovrebbe essere emesso.

fine_campione
Il numero del primo campione da eliminare.

inizia a, finee durata sono espressi come specifiche di durata temporale; vedere , il Ora
durata pagina in , il ffmpeg-utils(1) Manuale.

Nota che i primi due set di opzioni di inizio/fine e il durata opzione guarda il
frame timestamp, mentre le opzioni _sample contano semplicemente i campioni che passano attraverso il
filtro. Quindi start/end_pts e start/end_sample daranno risultati diversi quando il
i timestamp sono errati, inesatti o non iniziano da zero. Si noti inoltre che questo filtro no
modificare i timestamp. Se si desidera che i timestamp di output inizino da zero, inserire il
filtro asetpts dopo il filtro atrim.

Se sono impostate più opzioni di inizio o fine, questo filtro cerca di essere avido e di mantenere tutto
campioni che soddisfano almeno uno dei vincoli specificati. Per mantenere solo la parte che
corrisponde a tutti i vincoli contemporaneamente, concatena più filtri atrim.

Le impostazioni predefinite sono tali che tutto l'input viene mantenuto. Quindi è possibile impostare ad esempio solo il
valori finali per mantenere tutto prima del tempo specificato.

Consigli d'uso:

· Elimina tutto tranne il secondo minuto di input:

ffmpeg -i INGRESSO -af atrim=60:120

· Conserva solo i primi 1000 campioni:

ffmpeg -i INPUT -af atrim=end_sample=1000

passa-banda
Applicare un filtro passa-banda Butterworth a due poli con frequenza centrale frequenzae
(3dB-punto) larghezza di banda. Il csg opzione seleziona un guadagno gonna costante (guadagno di picco =
Q) invece del valore predefinito: guadagno di picco costante a 0dB. Il filtro si spegne a 6dB per ottava
(20dB per decennio).

Il filtro accetta le seguenti opzioni:

frequenza, f
Imposta la frequenza centrale del filtro. Il valore predefinito è 3000.

csg Guadagno gonna costante se impostato su 1. Il valore predefinito è 0.

larghezza_tipo
Imposta il metodo per specificare la larghezza di banda del filtro.

h Hz

q Fattore Q

o ottava

s pendenza

larghezza, w
Specificare la larghezza di banda di un filtro in unità width_type.

rifiuto di banda
Applicare un filtro antibanda Butterworth a due poli con frequenza centrale frequenzae
(3dB-punto) larghezza di banda larghezza. Il filtro si spegne a 6dB per ottava (20dB per decennio).

Il filtro accetta le seguenti opzioni:

frequenza, f
Imposta la frequenza centrale del filtro. Il valore predefinito è 3000.

larghezza_tipo
Imposta il metodo per specificare la larghezza di banda del filtro.

h Hz

q Fattore Q

o ottava

s pendenza

larghezza, w
Specificare la larghezza di banda di un filtro in unità width_type.

basso
Aumenta o taglia le frequenze dei bassi (più basse) dell'audio utilizzando un filtro shelving a due poli
con una risposta simile a quella dei controlli di tono di un hi-fi standard. Questo è anche noto come
equalizzazione scaffalature (EQ).

Il filtro accetta le seguenti opzioni:

acquisire, g
Dare il guadagno a 0 Hz. Il suo range utile va da -20 (per un taglio ampio) a +20 (per a
grande spinta). Fare attenzione al clipping quando si utilizza un guadagno positivo.

frequenza, f
Imposta la frequenza centrale del filtro e quindi può essere utilizzato per estendere o ridurre il
gamma di frequenze da enfatizzare o tagliare. Il valore predefinito è 100 Hz.

larghezza_tipo
Imposta il metodo per specificare la larghezza di banda del filtro.

h Hz

q Fattore Q

o ottava

s pendenza

larghezza, w
Determina quanto è ripida la transizione dello scaffale del filtro.

biquadrile
Applicare un filtro IIR biquadrato con i coefficienti indicati. Dove b0, b1, b2 ed a0, a1, a2
sono rispettivamente i coefficienti del numeratore e del denominatore.

bs2b
Trasformazione da stereo Bauer a binaurale, che migliora l'ascolto in cuffia dello stereo
registrazioni audio.

Accetta i seguenti parametri:

tuo profilo
Livello di alimentazione incrociato predefinito.

difetto
Livello predefinito (fcut=700, feed=50).

cmq
Circuito Chu Moy (fcut=700, feed=60).

jmeier
Circuito Jan Meier (fcut=650, feed=95).

fc
Frequenza di taglio (in Hz).

alimentare
Livello di alimentazione (in Hz).

mappa del canale
Rimappa i canali di ingresso in nuove posizioni.

Accetta i seguenti parametri:

layout_canale
Il layout del canale del flusso di output.

carta geografica Mappa i canali dall'input all'output. L'argomento è un elenco di mappature separato da '|',
ciascuno nel "in_channel-out_channel" or in_canale forma. in_canale può essere sia il
nome del canale di ingresso (es. FL per anteriore sinistro) o il suo indice nel canale di ingresso
layout. fuori_canale è il nome del canale di output o il suo indice nell'output
disposizione del canale. Se fuori_canale non è dato allora è implicitamente un indice, a partire da
con zero e crescente di uno per ogni mappatura.

Se non è presente alcuna mappatura, il filtro mapperà implicitamente i canali di input sull'output
canali, preservando gli indici.

Ad esempio, supponendo un file MOV di input 5.1+downmix,

ffmpeg -i in.mov -filter 'channelmap=map=DL-FL|DR-FR' out.wav

creerà un file WAV di output etichettato come stereo dai canali di downmix dell'input.

Per correggere un WAV 5.1 codificato in modo errato nell'ordine dei canali nativi di AAC

ffmpeg -i in.wav -filter 'channelmap=1|2|0|5|3|4:5.1' out.wav

suddivisione dei canali
Dividi ogni canale da un flusso audio di input in un flusso di output separato.

Accetta i seguenti parametri:

layout_canale
Il layout del canale del flusso di input. L'impostazione predefinita è "stereo".

Ad esempio, supponendo un file MP3 di ingresso stereo,

ffmpeg -i in.mp3 -filter_compless channelssplit out.mkv

creerà un file Matroska di output con due flussi audio, uno contenente solo il sinistro
canale e l'altro il canale destro.

Dividi un file WAV 5.1 in file per canale:

ffmpeg -i in.wav -filter_compless
'channelsplit=layout_canale=5.1[FL][FR][FC][LFE][SL][SR]'
-map '[FL]' front_left.wav -map '[FR]' front_right.wav -map '[FC]'
front_center.wav -map '[LFE]' lfe.wav -map '[SL]' side_left.wav -map '[SR]'
lato_destra.wav

coro
Aggiungi un effetto coro all'audio.

Può emettere un singolo suono vocale come un coro, ma può anche essere applicato alla strumentazione.

Chorus assomiglia a un effetto eco con un breve ritardo, ma mentre con l'eco il ritardo è
costante, con chorus, viene variata utilizzando la modulazione sinusoidale o triangolare. Il
la profondità di modulazione definisce l'intervallo in cui viene riprodotto il ritardo modulato prima o dopo il
ritardo. Quindi il suono ritardato suonerà più lento o più veloce, questo è il suono ritardato
intonato a quello originale, come in un ritornello in cui alcune voci sono leggermente stonate.

Accetta i seguenti parametri:

in_guadagno
Imposta il guadagno in ingresso. Il valore predefinito è 0.4.

out_gain
Imposta il guadagno in uscita. Il valore predefinito è 0.4.

ritardi
Imposta ritardi. Un tipico ritardo è compreso tra 40 ms e 60 ms.

decadimenti
Impostare decadimenti.

velocità
Imposta le velocità.

profondità
Imposta le profondità.

Esempi

· Un solo ritardo:

chorus=0.7:0.9:55:0.4:0.25:2

· Due ritardi:

chorus=0.6:0.9:50|60:0.4|0.32:0.25|0.4:2|1.3

· Chorus dal suono più pieno con tre ritardi:

chorus=0.5:0.9:50|60|40:0.4|0.32|0.3:0.25|0.4|0.3:2|2.3|1.3

compagna
Comprimi o espandi la gamma dinamica dell'audio.

Accetta i seguenti parametri:

attacchi
decadimenti
Un elenco di tempi in secondi per ogni canale oltre il quale il livello istantaneo del
il segnale in ingresso viene mediato per determinarne il volume. attacchi si riferisce all'aumento di volume
ed decadimenti si riferisce alla diminuzione del volume. Per la maggior parte delle situazioni, il tempo di attacco
(risposta all'aumento del volume dell'audio) dovrebbe essere più breve del tempo di decadimento, perché
l'orecchio umano è più sensibile all'audio forte improvviso rispetto all'audio debole improvviso. Un tipico
il valore per l'attacco è di 0.3 secondi e un valore tipico per il decadimento è di 0.8 secondi. Se
il numero specificato di attacchi e decadimenti è inferiore al numero di canali, l'ultimo set
attacco/decadimento verrà utilizzato per tutti i canali rimanenti.

punti
Un elenco di punti per la funzione di trasferimento, specificati in dB rispetto al massimo
possibile ampiezza del segnale. Ciascun elenco di punti chiave deve essere definito utilizzando quanto segue
sintassi: "x0/y0|x1/y1|x2/y2|...." o "x0/y0 x1/y1 x2/y2 ...."

I valori di input devono essere in ordine strettamente crescente ma la funzione di trasferimento lo fa
non deve essere monotono in aumento. Il punto "0/0" è assunto ma può essere sovrascritto
(per "0/out-dBn"). I valori tipici per la funzione di trasferimento sono "-70/-70|-60/-20".

ginocchio morbido
Imposta il raggio della curva in dB per tutti i giunti. Il valore predefinito è 0.01.

guadagno
Imposta il guadagno aggiuntivo in dB da applicare in tutti i punti della funzione di trasferimento.
Ciò consente una facile regolazione del guadagno complessivo. Il valore predefinito è 0.

volume
Impostare un volume iniziale, in dB, da assumere per ogni canale all'avvio del filtraggio.
Ciò consente all'utente di fornire inizialmente un livello nominale, in modo che, ad esempio, a
un guadagno molto grande non viene applicato ai livelli di segnale iniziali prima che il companding abbia
iniziato ad operare. Un valore tipico per l'audio inizialmente basso è -90 dB. Esso
il valore predefinito è 0.

ritardo
Imposta un ritardo, in secondi. L'audio in ingresso viene analizzato immediatamente, ma l'audio viene ritardato
prima di essere alimentato al regolatore di volume. Specificando un ritardo approssimativamente uguale al
i tempi di attacco/decadimento consentono al filtro di operare efficacemente in modalità predittiva anziché
modalità reattiva. Il valore predefinito è 0.

Esempi

· Crea musica con passaggi sia bassi che rumorosi adatti per l'ascolto in un ambiente rumoroso
ambiente:

compand=.3|.3:1|1:-90/-60|-60/-40|-40/-30|-20/-20:6:0:-90:0.2

Un altro esempio per l'audio con parti sussurrate ed esplosive:

compand=0|0:1|1:-90/-900|-70/-70|-30/-9|0/-3:6:0:0:0

· Un noise gate per quando il rumore è a un livello inferiore al segnale:

compand=.1|.1:.2|.2:-900/-900|-50.1/-900|-50/-50:.01:0:-90:.1

· Ecco un altro noise gate, questa volta per quando il rumore è a un livello più alto del
segnale (rendendolo, in qualche modo, simile allo squelch):

compand=.1|.1:.1|.1:-45.1/-45.1|-45/-900|0/-900:.01:45:-90:.1

dcshift
Applicare uno spostamento DC all'audio.

Questo può essere utile per rimuovere un offset DC (causato forse da un problema hardware nel
catena di registrazione) dall'audio. L'effetto di un offset DC è un headroom ridotto e quindi
volume. Il astat filtro può essere utilizzato per determinare se un segnale ha un offset CC.

spostamento
Imposta lo spostamento CC, l'intervallo consentito è [-1, 1]. Indica la quantità per spostare il
audio.

limite di guadagno
Opzionale. Dovrebbe avere un valore molto inferiore a 1 (es. 0.05 o 0.02) e viene utilizzato per
prevenire il ritaglio.

dinaudnorma
Normalizzatore audio dinamico.

Questo filtro applica una certa quantità di guadagno all'audio in ingresso per portare il suo picco
magnitudo a un livello target (ad es. 0 dBFS). Tuttavia, a differenza di più "semplici"
algoritmi di normalizzazione, il normalizzatore audio dinamico *dinamicamente* regola nuovamente il guadagno
fattore per l'audio in ingresso. Ciò consente di applicare un guadagno extra alle sezioni "silenziose" di
l'audio evitando distorsioni o il ritaglio delle sezioni "rumorose". In altre parole: The
Dynamic Audio Normalizer "uniformerà" il volume delle sezioni basse e alte, nel
senso che il volume di ogni sezione è portato allo stesso livello di destinazione. Nota, tuttavia,
che il Dynamic Audio Normalizer raggiunge questo obiettivo *senza* applicare la "gamma dinamica"
compressione". Manterrà il 100% della gamma dinamica *all'interno* di ogni sezione dell'audio
file.

f Imposta la lunghezza del fotogramma in millisecondi. Nell'intervallo da 10 a 8000 millisecondi. Predefinito
è 500 millisecondi. Il Dynamic Audio Normalizer elabora l'audio in ingresso in piccole
blocchi, detti frame. Questo è necessario, perché una magnitudo di picco non ha
significato per un solo valore campione. Invece, dobbiamo determinare il picco
grandezza per una sequenza contigua di valori campione. Mentre un normalizzatore "standard"
userebbe semplicemente l'ampiezza di picco del file completo, il Dynamic Audio Normalizer
determina la magnitudo di picco individualmente per ogni fotogramma. La lunghezza di un frame è
specificato in millisecondi. Per impostazione predefinita, il Normalizzatore audio dinamico utilizza una cornice
lunghezza di 500 millisecondi, che ha dato buoni risultati con la maggior parte dei file.
Si noti che verrà determinata la lunghezza esatta del fotogramma, in numero di campioni
automaticamente, in base alla frequenza di campionamento del singolo file audio in ingresso.

g Imposta la dimensione della finestra del filtro gaussiano. Nell'intervallo da 3 a 301, deve essere un numero dispari.
Il valore predefinito è 31. Probabilmente il parametro più importante del Dynamic Audio Normalizer
è la "dimensione della finestra" del filtro di livellamento gaussiano. La dimensione della finestra del filtro è
specificato in frame, centrato attorno al frame corrente. Per amore della semplicità,
questo deve essere un numero dispari. Di conseguenza, il valore di default di 31 tiene conto
il frame corrente, così come i 15 frame precedenti e i 15 frame successivi.
L'utilizzo di una finestra più ampia si traduce in un effetto di levigatura più forte e quindi in un minor guadagno
variazione, cioè un adattamento del guadagno più lento. Al contrario, l'utilizzo di una finestra più piccola risulta in
un effetto di levigatura più debole e quindi in una maggiore variazione di guadagno, ovvero un guadagno più veloce
adattamento. In altre parole, più aumenti questo valore, più Dynamic
Audio Normalizer si comporterà come un filtro di normalizzazione "tradizionale". Sul
al contrario, più diminuisci questo valore, più il Dynamic Audio Normalizer lo farà
comportarsi come un compressore di gamma dinamica.

p Impostare il valore di picco target. Questo specifica il livello di magnitudo più alto consentito per
l'ingresso audio normalizzato. Questo filtro cercherà di avvicinarsi alla magnitudine di picco target
il più vicino possibile, ma allo stesso tempo si assicura anche che la normalizzazione
segnale non supererà mai la magnitudine di picco. Il fattore di guadagno locale massimo di un frame è
imposto direttamente dalla magnitudo del picco target. Il valore predefinito è 0.95 e quindi
lascia un margine del 5%*. Non è consigliabile superare questo valore.

m Imposta il fattore di guadagno massimo. Nell'intervallo da 1.0 a 100.0. Il valore predefinito è 10.0. la dinamica
Audio Normalizer determina il massimo fattore di guadagno (locale) possibile per ciascun ingresso
frame, ovvero il fattore di guadagno massimo che non provoca clipping o distorsione.
Il fattore di guadagno massimo è determinato dal campione di magnitudine più alta del frame.
Tuttavia, il normalizzatore audio dinamico limita ulteriormente il guadagno massimo del fotogramma
fattore di guadagno massimo (globale) predeterminato. Questo è fatto per evitare
fattori di guadagno eccessivi in ​​frame "silenziosi" o quasi silenziosi. Per impostazione predefinita, il massimo
il fattore di guadagno è 10.0, per la maggior parte degli ingressi il valore predefinito dovrebbe essere sufficiente e
di solito non è consigliabile aumentare questo valore. Tuttavia, per un input estremamente
volume generale basso, potrebbe essere necessario consentire fattori di guadagno ancora più elevati. Nota,
tuttavia, che il Dynamic Audio Normalizer non applica semplicemente una soglia "difficile"
(vale a dire valori di cut-off al di sopra della soglia). Invece, una funzione di soglia "sigmoide"
sarà applicato. In questo modo, i fattori di guadagno si avvicineranno gradualmente alla soglia
valore, ma non superarlo mai.

r Imposta l'RMS di destinazione. Nell'intervallo da 0.0 a 1.0. Il valore predefinito è 0.0 - disabilitato. Per impostazione predefinita,
il Dynamic Audio Normalizer esegue la normalizzazione "di picco". Ciò significa che il
il massimo fattore di guadagno locale per ogni frame è definito (solo) dal frame più alto
campione di magnitudo. In questo modo, i campioni possono essere amplificati il ​​più possibile senza
superando il livello massimo del segnale, cioè senza clipping. Facoltativamente, tuttavia, il
Dynamic Audio Normalizer può anche prendere in considerazione la radice quadrata media del fotogramma,
RMS abbreviato. In ingegneria elettrica, l'RMS è comunemente usato per determinare il
potenza di un segnale variabile nel tempo. Si ritiene pertanto che l'RMS sia un migliore
approssimazione del "volume percepito" rispetto alla semplice osservazione del picco del segnale
grandezza. Di conseguenza, regolando tutti i frame a un valore RMS costante, un'uniforme
è possibile stabilire il "volume percepito". Se è stato specificato un valore RMS target, a
il fattore di guadagno locale del frame è definito come il fattore che risulterebbe esattamente in questo
valore efficace. Si noti, tuttavia, che il fattore di guadagno locale massimo è ancora limitato da
campione di magnitudine più alta del fotogramma, al fine di evitare il clipping.

n Abilita l'accoppiamento dei canali. Per impostazione predefinita è abilitato. Per impostazione predefinita, l'audio dinamico
Normalizer amplificherà tutti i canali della stessa quantità. Questo significa lo stesso guadagno
fattore verrà applicato a tutti i canali, ovvero il fattore di guadagno massimo possibile è
determinato dal canale "più forte". Tuttavia, in alcune registrazioni, può succedere che
il volume dei diversi canali non è uniforme, ad esempio un canale potrebbe essere "più silenzioso" di
gli altri). In questo caso, questa opzione può essere utilizzata per disabilitare il canale
accoppiamento. In questo modo, il fattore di guadagno sarà determinato indipendentemente per ogni canale,
dipende solo dal campione di magnitudo più alto del singolo canale. Questo permette
armonizzare il volume dei diversi canali.

c Abilita la correzione della polarizzazione CC. Per impostazione predefinita è disabilitato. Un segnale audio (nel tempo
domain) è una sequenza di valori campione. Nel Dynamic Audio Normalizer questi campioni
i valori sono rappresentati nell'intervallo da -1.0 a 1.0, indipendentemente dall'input originale
formato. Normalmente, il segnale audio, o "forma d'onda", dovrebbe essere centrato attorno allo zero
punto. Ciò significa che se calcoliamo il valore medio di tutti i campioni in un file o in a
singolo fotogramma, allora il risultato dovrebbe essere 0.0 o almeno molto vicino a quel valore. Se,
tuttavia, c'è una deviazione significativa del valore medio da 0.0, in entrambi
direzione positiva o negativa, questa viene definita polarizzazione CC o offset CC. Da
Il bias DC è chiaramente indesiderabile, il Dynamic Audio Normalizer fornisce bias DC opzionale
correzione. Con la correzione del bias DC abilitata, il normalizzatore audio dinamico lo farà
determinare il valore medio, o offset di "correzione DC", di ciascun frame in ingresso e sottrarre
quel valore da tutti i valori di esempio del frame che garantisce che quei campioni siano
centrato di nuovo intorno a 0.0. Inoltre, al fine di evitare "lacune" ai confini del frame, il
I valori di offset della correzione CC verranno interpolati in modo uniforme tra i frame vicini.

b Abilita modalità limite alternativa. Per impostazione predefinita è disabilitato. L'audio dinamico
Normalizer tiene conto di un certo vicinato attorno a ciascun fotogramma. Ciò comprende
i frame precedenti così come i frame successivi. Tuttavia, per il "confine"
frame, situati all'inizio e alla fine del file audio, non tutti
sono disponibili frame adiacenti. In particolare, per i primi fotogrammi della
file audio, i fotogrammi precedenti non sono noti. E, allo stesso modo, per gli ultimi
frame nel file audio, i frame successivi non sono noti. Quindi, la domanda
emerge quali fattori di guadagno dovrebbero essere assunti per i frame mancanti nel "confine"
regione. Il Dynamic Audio Normalizer implementa due modalità per affrontare questa situazione.
La modalità limite predefinita presuppone un fattore di guadagno di esattamente 1.0 per i fotogrammi mancanti,
con conseguente "fade in" e "fade out" fluidi all'inizio e alla fine del
ingresso, rispettivamente.

s Imposta il fattore di compressione. Nell'intervallo da 0.0 a 30.0. Il valore predefinito è 0.0. Per impostazione predefinita, il
Dynamic Audio Normalizer non applica la compressione "tradizionale". Ciò significa che
i picchi del segnale non verranno eliminati e quindi verrà mantenuta l'intera gamma dinamica
all'interno di ogni quartiere locale. Tuttavia, in alcuni casi può essere desiderabile combinare
l'algoritmo di normalizzazione del Dynamic Audio Normalizer con un più "tradizionale"
compressione. A questo scopo, il Dynamic Audio Normalizer fornisce un optional
funzione di compressione (soglia). Se (e solo se) la funzione di compressione è
abilitato, tutti i frame di input verranno elaborati da una funzione di soglia del ginocchio morbido prima
al vero e proprio processo di normalizzazione. In parole povere, la funzione di soglia sta per
potare tutti i campioni la cui grandezza supera un certo valore di soglia. in ogni caso, il
Dynamic Audio Normalizer non applica semplicemente un valore di soglia fisso. Invece, il
il valore di soglia verrà regolato per ogni singolo fotogramma. In generale, più piccolo
parametri determinano una compressione più forte e viceversa. I valori inferiori a 3.0 non lo sono
consigliato, perché potrebbe apparire una distorsione udibile.

cerume
Semplifica l'ascolto dell'audio con le cuffie.

Questo filtro aggiunge "spunti" all'audio stereo a 44.1kHz (cioè in formato CD audio) in modo che quando
ascoltato in cuffia l'immagine stereo viene spostata dall'interno della testa (standard per
cuffie) all'esterno e davanti all'ascoltatore (standard per gli altoparlanti).

Trasferito da SoX.

equalizzatore
Applicare un filtro di equalizzazione del picco (EQ) a due poli. Con questo filtro, il livello del segnale a
e intorno a una frequenza selezionata può essere aumentata o diminuita, mentre (a differenza di bandpass e
filtri band-reject) che a tutte le altre frequenze rimane invariato.

Per produrre curve di equalizzazione complesse, questo filtro può essere applicato più volte,
ciascuno con una frequenza centrale diversa.

Il filtro accetta le seguenti opzioni:

frequenza, f
Imposta la frequenza centrale del filtro in Hz.

larghezza_tipo
Imposta il metodo per specificare la larghezza di banda del filtro.

h Hz

q Fattore Q

o ottava

s pendenza

larghezza, w
Specificare la larghezza di banda di un filtro in unità width_type.

acquisire, g
Impostare il guadagno o l'attenuazione richiesti in dB. Fai attenzione al clipping quando usi un positivo
guadagnare.

Esempi

· Attenua 10 dB a 1000 Hz, con una larghezza di banda di 200 Hz:

equalizzatore=f=1000:width_type=h:larghezza=200:g=-10

· Applicare 2 dB di guadagno a 1000 Hz con Q 1 e attenuare 5 dB a 100 Hz con Q 2:

equalizer=f=1000:width_type=q:width=1:g=2,equalizer=f=100:width_type=q:width=2:g=-5

flangiare
Applicare un effetto di flangiatura all'audio.

Il filtro accetta le seguenti opzioni:

ritardo
Imposta il ritardo di base in millisecondi. Intervallo da 0 a 30. Il valore predefinito è 0.

profondità
Imposta il ritardo di scorrimento aggiunto in millisecondi. Intervallo da 0 a 10. Il valore predefinito è 2.

mescolare
Impostare la percentuale di rigenerazione (retroazione del segnale ritardata). Intervallo da -95 a 95. Predefinito
il valore è 0.

larghezza
Imposta la percentuale del segnale ritardato miscelato con l'originale. Intervallo da 0 a 100. Predefinito
il valore è 71.

velocità
Imposta le scansioni al secondo (Hz). Intervallo da 0.1 a 10. Il valore predefinito è 0.5.

forma
Imposta la forma d'onda spazzata, può essere triangolare or sinusoidale. Il valore predefinito è sinusoidale.

fase
Imposta lo spostamento percentuale dell'onda di scorrimento per il multicanale. Intervallo da 0 a 100. Valore predefinito
è 25.

interazione
Imposta l'interpolazione della linea di ritardo, lineare or quadratico. L'impostazione predefinita è lineare.

alto passaggio
Applicare un filtro passa-alto con frequenza puntuale di 3dB. Il filtro può essere unipolare,
o bipolare (predefinito). Il filtro si spegne a 6dB per polo per ottava (20dB per
polo per decennio).

Il filtro accetta le seguenti opzioni:

frequenza, f
Imposta la frequenza in Hz. Il valore predefinito è 3000.

pali, p
Imposta il numero di poli. Il valore predefinito è 2.

larghezza_tipo
Imposta il metodo per specificare la larghezza di banda del filtro.

h Hz

q Fattore Q

o ottava

s pendenza

larghezza, w
Specificare la larghezza di banda di un filtro in unità width_type. Si applica solo al doppio polo
filtro. Il valore predefinito è 0.707q e fornisce una risposta Butterworth.

join
Unisci più flussi di input in un unico flusso multicanale.

Accetta i seguenti parametri:

Ingressi
Il numero di flussi di input. Il valore predefinito è 2.

layout_canale
Il layout del canale di uscita desiderato. L'impostazione predefinita è stereo.

carta geografica Mappa i canali dagli ingressi all'uscita. L'argomento è un elenco di mappature separato da '|',
ciascuno nel "input_idx.in_channel-out_channel" forma. input_idx è l'indice in base 0 di
il flusso di ingresso. in_canale può essere il nome del canale di ingresso (es. FL per
anteriore sinistro) o il suo indice nel flusso di input specificato. fuori_canale è il nome del
canale di uscita.

Il filtro tenterà di indovinare i mapping quando non sono specificati in modo esplicito. Esso
lo fa provando prima a trovare un canale di input corrispondente inutilizzato e se fallisce
seleziona il primo canale di ingresso inutilizzato.

Unisci 3 ingressi (con layout di canale impostati correttamente):

ffmpeg -i INPUT1 -i INPUT2 -i INPUT3 -filter_complex join=input=3 OUTPUT

Crea un output 5.1 da 6 stream a canale singolo:

ffmpeg -i fl -i fr -i fc -i sl -i sr -i lfe -filter_complex
'join=inputs=6:channel_layout=5.1:map=0.0-FL|1.0-FR|2.0-FC|3.0-SL|4.0-SR|5.0-LFE'
su

ladspa
Carica un plug-in LADSPA (Linux Audio Developer's Simple Plugin API).

Per abilitare la compilazione di questo filtro è necessario configurare FFmpeg con "--enable-ladspa".

file, f
Specifica il nome della libreria di plugin LADSPA da caricare. Se la variabile d'ambiente
PERCORSO_LADSPA è definito, il plugin LADSPA viene cercato in ciascuna delle directory
specificato dall'elenco separato da due punti in PERCORSO_LADSPA, altrimenti nello standard LADSPA
percorsi, che sono in questo ordine: HOME/.ladspa/lib/, /usr/local/lib/ladspa/,
/usr/lib/ladspa/.

, p
Specifica il plugin all'interno della libreria. Alcune librerie contengono solo un plugin, ma
altri ne contengono molti. Se questo non è impostato, il filtro elencherà tutti i plugin disponibili
all'interno della libreria specificata.

controlli, c
Imposta il '|' elenco separato di controlli che sono zero o più valori in virgola mobile
che determinano il comportamento del plugin caricato (ad esempio ritardo, soglia o
guadagno). I controlli devono essere definiti utilizzando la seguente sintassi:
c0=value0|c1=value1|c2=value2|..., dove valore è il valore impostato su i-esimo controllo.
If controlli è impostato su "aiuto", tutti i controlli disponibili e i loro intervalli validi sono
stampato.

frequenza di campionamento, s
Specificare la frequenza di campionamento, predefinita su 44100. Utilizzato solo se il plug-in ha zero input.

nb_campioni, n
Imposta il numero di campioni per canale per ogni frame di output, il valore predefinito è 1024. Solo
usato se il plugin ha zero input.

durata, d
Imposta la durata minima dell'audio di origine. Vedere , il Ora durata pagina in , il
ffmpeg-utils(1) Manuale per la sintassi accettata. Si noti che la durata risultante potrebbe
essere maggiore della durata specificata, poiché l'audio generato viene sempre tagliato al
fine di un quadro completo. Se non specificato, o la durata espressa è negativa, il
l'audio dovrebbe essere generato per sempre. Usato solo se il plugin ha zero input.

Esempi

· Elenca tutti i plugin disponibili nella libreria amp (plugin di esempio LADSPA):

ladspa=file=amp

· Elenca tutti i controlli disponibili e i loro intervalli validi per il plug-in "vcf_notch" da "VCF"
biblioteca:

ladspa=f=vcf:p=vcf_notch:c=aiuto

· Simula apparecchiature audio di bassa qualità utilizzando il plug-in "Computer Music Toolkit" (CMT)
biblioteca:

ladspa=file=cmt:plugin=lofi:controls=c0=22|c1=12|c2=12

· Aggiungi riverbero all'audio utilizzando i plug-in TAP (plug-in di elaborazione audio di Tom):

ladspa=file=tap_reverb:tap_reverb

· Genera rumore bianco, con ampiezza 0.2:

ladspa=file=cmt:noise_source_white:c=c0=.2

· Genera clic di 20 bpm utilizzando il plug-in "C* Click - Metronome" dal "Plugin C* Audio
Libreria Suite" (CAPS):

ladspa=file=caps:Click:c=c1=20'

· Applicare l'effetto "C* Eq10X2 - Equalizzatore stereo a 10 bande":

ladspa=caps:Eq10X2:c=c0=-48|c9=-24|c3=12|c4=2

Comandi

Questo filtro supporta i seguenti comandi:

cN modificare la N-esimo valore di controllo.

Se il valore specificato non è valido, viene ignorato e viene mantenuto quello precedente.

passabasso
Applicare un filtro passa-basso con frequenza di 3dB. Il filtro può essere unipolare o
bipolare (predefinito). Il filtro si spegne a 6dB per polo per ottava (20dB per polo
per decennio).

Il filtro accetta le seguenti opzioni:

frequenza, f
Imposta la frequenza in Hz. Il valore predefinito è 500.

pali, p
Imposta il numero di poli. Il valore predefinito è 2.

larghezza_tipo
Imposta il metodo per specificare la larghezza di banda del filtro.

h Hz

q Fattore Q

o ottava

s pendenza

larghezza, w
Specificare la larghezza di banda di un filtro in unità width_type. Si applica solo al doppio polo
filtro. Il valore predefinito è 0.707q e fornisce una risposta Butterworth.

padella
Mixa canali con livelli di guadagno specifici. Il filtro accetta il layout del canale di uscita
seguito da una serie di definizioni dei canali.

Questo filtro è progettato anche per rimappare in modo efficiente i canali di un flusso audio.

Il filtro accetta i parametri del modulo: "l|fuori definizione|fuori definizione|..."

l layout del canale di uscita o numero di canali

fuori definizione
specifica del canale di uscita, della forma:
"fuori_nome=[guadagno*]in_nome[+[guadagno*]in_nome...]"

fuori_nome
canale di uscita da definire, un nome di canale (FL, FR, ecc.) o un numero di canale
(c0, c1, ecc.)

guadagno
coefficiente moltiplicativo per il canale, 1 lasciando invariato il volume

in_nome
canale di input da utilizzare, vedere out_name per i dettagli; non è possibile mischiare nome e
canali di ingresso numerati

Se il `=' nella specifica di un canale è sostituito da `<', allora i guadagni per quello
le specifiche verranno rinormalizzate in modo che il totale sia 1, evitando così il rumore di clipping.

Miscelazione Esempi

Ad esempio, se vuoi eseguire il downmix da stereo a mono, ma con un fattore maggiore per il
canale sinistro:

pan=1c|c0=0.9*c0+0.1*c1

Un down-mix personalizzato in stereo che funziona automaticamente per 3, 4, 5 e 7 canali
circondare:

pan=stereo| FL < FL + 0.5*FC + 0.6*BL + 0.6*SL | FR < FR + 0.5*FC + 0.6*BR + 0.6*SR

Si noti che ffmpeg integra un sistema down-mix (e up-mix) predefinito che dovrebbe essere
preferito (vedi opzione "-ac") a meno che tu non abbia esigenze molto specifiche.

rimappatura Esempi

La rimappatura dei canali sarà effettiva se, e solo se:

*
*

Se tutte queste condizioni sono soddisfatte, il filtro avviserà l'utente ("Canale puro
mappatura rilevata") e utilizzare un metodo ottimizzato e senza perdite per eseguire la rimappatura.

Ad esempio, se si dispone di una sorgente 5.1 e si desidera un flusso audio stereo eliminando l'extra
canali:

pan="stereo| c0=FL | c1=FR"

Data la stessa sorgente, puoi anche cambiare i canali anteriore sinistro e anteriore destro e mantenere
il layout del canale di ingresso:

pan="5.1| c0=c1 | c1=c0 | c2=c2 | c3=c3 | c4=c4 | c5=c5"

Se l'ingresso è un flusso audio stereo, è possibile disattivare l'audio del canale anteriore sinistro (e continuare a mantenere
il layout del canale stereo) con:

pan="stereo|c1=c1"

Sempre con un ingresso di flusso audio stereo, puoi copiare il canale destro in entrambi i fronti sinistro
e a destra:

pan="stereo| c0=FR | c1=FR"

rigiocare
Filtro scanner ReplayGain. Questo filtro prende un flusso audio come input e lo emette
invariato. Alla fine del filtro mostra "track_gain" e "track_peak".

ricampionare
Converti il ​​formato del campione audio, la frequenza di campionamento e il layout del canale. Non è destinato ad essere
utilizzato direttamente.

compressione sidechain
Questo filtro agisce come un normale compressore ma ha la capacità di comprimere il segnale rilevato
utilizzando il secondo segnale di ingresso. Ha bisogno di due flussi di input e restituisce un flusso di output.
Il primo flusso di input verrà elaborato in base al segnale del secondo flusso. Il filtrato
segnale quindi può essere filtrato con altri filtri in fasi successive di elaborazione. Vedere padella ed
unire filtro.

Il filtro accetta le seguenti opzioni:

soglia
Se un segnale del secondo flusso sale al di sopra di questo livello, influenzerà la riduzione del guadagno
di prima corrente. Per impostazione predefinita è 0.125. L'intervallo è compreso tra 0.00097563 e 1.

rapporto
Imposta un rapporto rispetto al quale viene ridotto il segnale. 1:2 significa che se il livello aumenta di 4dB
sopra la soglia, sarà solo 2dB sopra dopo la riduzione. Il valore predefinito è 2.
L'intervallo è compreso tra 1 e 20.

attacco
Quantità di millisecondi in cui il segnale deve superare la soglia prima del guadagno
inizia la riduzione. Il valore predefinito è 20. L'intervallo è compreso tra 0.01 e 2000.

rilasciare
Quantità di millisecondi in cui il segnale deve scendere al di sotto della soglia prima che la riduzione sia
diminuito di nuovo. Il valore predefinito è 250. L'intervallo è compreso tra 0.01 e 9000.

trucco
Imposta la quantità di segnale che verrà amplificato dopo l'elaborazione. Il valore predefinito è 2.
L'intervallo è compreso tra 1 e 64.

ginocchio
Curvare il ginocchio appuntito intorno alla soglia per entrare in riduzione del guadagno più dolcemente.
Il valore predefinito è 2.82843. L'intervallo è compreso tra 1 e 8.

link
Scegli se il livello "medio" tra tutti i canali del flusso side-chain o il
il canale più forte ("massimo") del flusso della catena laterale influisce sulla riduzione. L'impostazione predefinita è
"media".

rivelazione
Dovrebbe essere preso il segnale esatto in caso di "picco" o uno RMS in caso di "rms".
Il valore predefinito è "rms" che è principalmente più fluido.

Esempi

· Esempio completo di ffmpeg con 2 ingressi audio, il primo ingresso da comprimere a seconda del
segnale del 2° ingresso e successivo segnale compresso da unire al 2° ingresso:

ffmpeg -i main.flac -i sidechain.flac -filter_complex "[1:a]asplit=2[sc][mix];[0:a][sc]sidechaincompress[compr];[compr][mix]merge"

silenziorilevare
Rileva il silenzio in un flusso audio.

Questo filtro registra un messaggio quando rileva che il volume dell'audio in ingresso è inferiore o uguale a
un valore di tolleranza al rumore per una durata maggiore o uguale al rumore minimo rilevato
durata.

I tempi e la durata stampati sono espressi in secondi.

Il filtro accetta le seguenti opzioni:

durata, d
Imposta la durata del silenzio fino alla notifica (l'impostazione predefinita è 2 secondi).

rumore, n
Imposta la tolleranza al rumore. Può essere specificato in dB (nel caso in cui "dB" sia aggiunto al valore specificato
valore) o rapporto di ampiezza. L'impostazione predefinita è -60dB o 0.001.

Esempi

· Rileva 5 secondi di silenzio con tolleranza al rumore di -50dB:

rilevamento del silenzio=n=-50dB:d=5

· Esempio completo con ffmpeg per rilevare il silenzio con tolleranza al rumore 0.0001 in
silenzio.mp3:

ffmpeg -i silent.mp3 -af silentdetect=noise=0.0001 -f null -

silenziorimuovi
Rimuovi il silenzio dall'inizio, dalla metà o dalla fine dell'audio.

Il filtro accetta le seguenti opzioni:

inizio_periodi
Questo valore viene utilizzato per indicare se l'audio deve essere tagliato all'inizio dell'audio. UN
il valore zero indica che nessun silenzio deve essere tagliato dall'inizio. quando
specificando un valore diverso da zero, taglia l'audio fino a quando non trova il non silenzio. Normalmente,
quando si taglia il silenzio dall'inizio dell'audio il inizio_periodi sarà 1 ma può
essere aumentato a valori più alti per tagliare tutto l'audio fino a un numero specifico di non silenzio
periodi. Il valore predefinito è 0.

inizio_durata
Specificare la quantità di tempo in cui il non silenzio deve essere rilevato prima che smetta di tagliare
Audio. Aumentando la durata, le raffiche di rumore possono essere trattate come silenzio e
rifilato. Il valore predefinito è 0.

soglia_inizio
Questo indica quale valore campione deve essere trattato come silenzio. Per l'audio digitale, a
il valore 0 può andare bene, ma per l'audio registrato da analogico, potresti voler aumentare
il valore per tenere conto del rumore di fondo. Può essere specificato in dB (nel caso in cui "dB" sia
aggiunto al valore specificato) o rapporto di ampiezza. Il valore predefinito è 0.

stop_periods
Imposta il conteggio per il taglio del silenzio dalla fine dell'audio. Per rimuovere il silenzio dal
mezzo di un file, specificare a stop_periods quello è negativo. Questo valore viene quindi trattato
come valore positivo e viene utilizzato per indicare che l'effetto dovrebbe riavviare l'elaborazione come
specificato da inizio_periodi, rendendolo idoneo alla rimozione dei periodi di silenzio in
mezzo dell'audio. Il valore predefinito è 0.

stop_duration
Specificare una durata del silenzio che deve esistere prima che l'audio non venga più copiato. Di
specificando una durata maggiore, il silenzio voluto può essere lasciato nell'audio.
Il valore predefinito è 0.

stop_soglia
Questo è lo stesso di soglia_inizio ma per tagliare il silenzio dalla fine dell'audio.
Può essere specificato in dB (nel caso in cui "dB" venga aggiunto al valore specificato) o in ampiezza
rapporto. Il valore predefinito è 0.

lasciare_silenzio
Questo indica che stop_duration la lunghezza dell'audio deve essere lasciata intatta al
inizio di ogni periodo di silenzio. Ad esempio, se vuoi rimuovere lunghe pause
tra le parole ma non voglio rimuovere completamente le pause. Il valore predefinito è 0.

Esempi

· L'esempio seguente mostra come utilizzare questo filtro per avviare una registrazione che non
non contenere il ritardo all'inizio che di solito si verifica tra la pressione del record
pulsante e l'inizio della performance:

silentremove=1:5:0.02

triplo
Aumenta o taglia le frequenze acute (superiori) dell'audio utilizzando un filtro shelving a due poli con
una risposta simile a quella dei controlli di tono di un impianto hi-fi standard. Questo è anche noto come
equalizzazione scaffalature (EQ).

Il filtro accetta le seguenti opzioni:

acquisire, g
Dare il guadagno a qualunque sia il più basso tra ~22 kHz e la frequenza di Nyquist. Suo
l'intervallo utile è compreso tra -20 (per un taglio ampio) e +20 (per un aumento elevato). Diffidare di
clipping quando si utilizza un guadagno positivo.

frequenza, f
Imposta la frequenza centrale del filtro e quindi può essere utilizzato per estendere o ridurre il
gamma di frequenze da enfatizzare o tagliare. Il valore predefinito è 3000 Hz.

larghezza_tipo
Imposta il metodo per specificare la larghezza di banda del filtro.

h Hz

q Fattore Q

o ottava

s pendenza

larghezza, w
Determina quanto è ripida la transizione dello scaffale del filtro.

volume
Regola il volume dell'audio in ingresso.

Accetta i seguenti parametri:

volume
Imposta l'espressione del volume audio.

I valori di output vengono ritagliati al valore massimo.

Il volume audio in uscita è dato dalla relazione:

= *

Il valore predefinito per volume è "1.0".

precisione
Questo parametro rappresenta la precisione matematica.

Determina quali formati campione di input saranno consentiti, il che influisce sulla precisione
del ridimensionamento del volume.

fisso
virgola fissa a 8 bit; questo limita il formato del campione di input a U8, S16 e S32.

galleggiante
virgola mobile a 32 bit; questo limita il formato del campione di input a FLT. (predefinito)

doppio
64 bit in virgola mobile; questo limita il formato del campione di input a DBL.

rigiocare
Scegliere il comportamento quando si incontrano i dati laterali di ReplayGain nei frame di input.

cadere
Rimuovi i dati laterali di ReplayGain, ignorandone il contenuto (impostazione predefinita).

ignorare
Ignora i dati laterali di ReplayGain, ma lasciali nel frame.

pista
Preferisci il guadagno della traccia, se presente.

album
Preferisci il guadagno dell'album, se presente.

replaygain_preamp
Guadagno di preamplificazione in dB da applicare al guadagno di riproduzione selezionato.

Valore predefinito per replaygain_preamp è 0.0.

eval
Impostato quando viene valutata l'espressione del volume.

Accetta i seguenti valori:

una volta
valutare l'espressione solo una volta durante l'inizializzazione del filtro o quando il volume
il comando è stato inviato

telaio
valuta l'espressione per ogni frame in arrivo

Il valore predefinito è una volta.

L'espressione del volume può contenere i seguenti parametri.

n numero di telaio (a partire da zero)

nb_canali
numero di canali

nb_campioni_consumati
numero di campioni consumati dal filtro

nb_campioni
numero di campioni nel frame corrente

inviare posizione originale della cornice nel file

pts telaio PTS

frequenza di campionamento
frequenza di campionamento

inizia
PTS all'inizio dello streaming

inizio
ora all'inizio dello streaming

t tempo di frame

tb timestamp base temporale

volume
ultimo valore del volume impostato

Si noti che quando eval è impostato su una volta Solo l' frequenza di campionamento ed tb variabili sono disponibili,
tutte le altre variabili valuteranno come NAN.

Comandi

Questo filtro supporta i seguenti comandi:

volume
Modificare l'espressione del volume. Il comando accetta la stessa sintassi del
opzione corrispondente.

Se l'espressione specificata non è valida, viene mantenuta al suo valore corrente.

replaygain_noclip
Prevenire il clipping limitando il guadagno applicato.

Valore predefinito per replaygain_noclip è 1.

Esempi

· Dimezzare il volume dell'audio in ingresso:

volume=volume=0.5
volume=volume=1/2
volume=volume=-6.0206 dB

In tutto l'esempio sopra la chiave denominata per volume può essere omesso, ad esempio come in:

volume=0.5

· Aumenta la potenza audio in ingresso di 6 decibel utilizzando la precisione in virgola fissa:

volume=volume=6dB:precisione=fisso

· Fade volume dopo il tempo 10 con un periodo di annientamento di 5 secondi:

volume='if(lt(t,10),1,max(1-(t-10)/5,0))':eval=frame

rilevamento volume
Rileva il volume del video in ingresso.

Il filtro non ha parametri. L'ingresso non viene modificato. Le statistiche sul volume saranno
essere stampato nel registro quando viene raggiunta la fine del flusso di input.

In particolare mostrerà il volume medio (radice quadratica media), il volume massimo (su un per-
base campionaria) e l'inizio di un istogramma dei valori di volume registrati (da
valore massimo a 1/1000 cumulato dei campioni).

Tutti i volumi sono in decibel relativi al valore PCM massimo.

Esempi

Ecco un estratto dell'output:

[Rilevamento_volume_analizzato_0 0xa23120] volume_medio: -27 dB
[Parsed_volumedetect_0 0xa23120] volume_max: -4 dB
[Prsed_volumedetect_0 0xa23120] istogramma_4db: 6
[Prsed_volumedetect_0 0xa23120] istogramma_5db: 62
[Prsed_volumedetect_0 0xa23120] istogramma_6db: 286
[Prsed_volumedetect_0 0xa23120] istogramma_7db: 1042
[Prsed_volumedetect_0 0xa23120] istogramma_8db: 2551
[Prsed_volumedetect_0 0xa23120] istogramma_9db: 4609
[Prsed_volumedetect_0 0xa23120] istogramma_10db: 8409

Significa che:

· L'energia quadratica media è di circa -27 dB, o 10^-2.7.

· Il campione più grande è a -4 dB, o più precisamente tra -4 dB e -5 dB.

· Ci sono 6 campioni a -4 dB, 62 a -5 dB, 286 a -6 dB, ecc.

In altre parole alzare il volume di +4 dB non provoca alcun clipping, alzandolo di +5
dB provoca il clipping per 6 campioni, ecc.

AUDIO FONTI


Di seguito è riportata una descrizione delle sorgenti audio attualmente disponibili.

tampone
Archivia i frame audio e rendili disponibili per la catena di filtri.

Questa fonte è principalmente destinata ad un uso programmatico, in particolare attraverso l'interfaccia
definito in libavfilter/asrc_abuffer.h.

Accetta i seguenti parametri:

tempo base
La base temporale che verrà utilizzata per i timestamp dei frame inviati. Deve essere o
un numero in virgola mobile o in numeratore/denominatore forma.

frequenza di campionamento
La frequenza di campionamento dei buffer audio in ingresso.

campione_fmt
Il formato di esempio dei buffer audio in ingresso. Un nome di formato di esempio o il suo
rappresentazione intera corrispondente dall'enum AVSampleFormat in
libavutil/samplefmt.h

layout_canale
Il layout dei canali dei buffer audio in ingresso. O un nome del layout del canale da
channel_layout_map in libavutil/layout_canale.c o il suo numero intero corrispondente
rappresentazione dalle macro AV_CH_LAYOUT_* in libavutil/layout_canale.h

canali
Il numero di canali dei buffer audio in ingresso. Se entrambi canali ed
layout_canale sono specificati, allora devono essere coerenti.

Esempi

abuffer=frequenza_campione=44100:fmt_campione=s16p:layout_canale=stereo

indicherà alla sorgente di accettare stereo planare firmato a 16 bit a 44100Hz. Dal momento che
il formato di esempio con il nome "s16p" corrisponde al numero 6 e al layout del canale "stereo"
corrisponde al valore 0x3, questo equivale a:

abuffer=frequenza_campione=44100:fmt_campione=6:layout_canale=0x3

aevalsrc
Genera un segnale audio specificato da un'espressione.

Questa sorgente accetta in ingresso una o più espressioni (una per ogni canale), che sono
valutati e utilizzati per generare un segnale audio corrispondente.

Questa fonte accetta le seguenti opzioni:

espressione
Imposta l'elenco delle espressioni separate da '|' per ciascun canale separato. Nel caso in cui
layout_canale opzione non è specificata, il layout del canale selezionato dipende dal
numero di espressioni fornite. Altrimenti viene applicata l'ultima espressione specificata a
i restanti canali di uscita.

layout_canale, c
Imposta il layout del canale. Il numero di canali nel layout specificato deve essere uguale
al numero di espressioni specificate.

durata, d
Imposta la durata minima dell'audio di origine. Vedere , il Ora durata pagina in , il
ffmpeg-utils(1) Manuale per la sintassi accettata. Si noti che la durata risultante potrebbe
essere maggiore della durata specificata, poiché l'audio generato viene sempre tagliato al
fine di un quadro completo.

Se non specificato, o la durata espressa è negativa, l'audio dovrebbe essere
generato per sempre.

nb_campioni, n
Imposta il numero di campioni per canale per ogni frame di output, il valore predefinito è 1024.

frequenza di campionamento, s
Specificare la frequenza di campionamento, predefinita su 44100.

Ogni espressione in espressione può contenere le seguenti costanti:

n numero del campione valutato, a partire da 0

t tempo del campione valutato espresso in secondi, a partire da 0

s frequenza di campionamento

Esempi

· Genera silenzio:

aevalsrc=0

· Genera un segnale sin con frequenza di 440 Hz, imposta la frequenza di campionamento a 8000 Hz:

aevalsrc="/sin(440*2*PI*t):s=8000"

· Generare un segnale a due canali, specificare il layout del canale (Front Center + Back
Centro) esplicitamente:

aevalsrc="/sin(420*2*PI*t)|cos(430*2*PI*t):c=FC|BC"

· Genera rumore bianco:

aevalsrc="/-2+casuale(0) "

· Generare un segnale modulato in ampiezza:

aevalsrc="/sin(10*2*PI*t)*sin(880*2*PI*t)"

· Genera battiti binaurali a 2.5 Hz su una portante a 360 Hz:

aevalsrc="/0.1*sin(2*PI*(360-2.5/2)*t) | 0.1*sin(2*PI*(360+2.5/2)*t)"

anllsrc
La sorgente audio nulla, restituisce frame audio non elaborati. È principalmente utile come modello
e da impiegare in strumenti di analisi/debug, o come fonte per filtri che
ignorare i dati di input (ad esempio il filtro synth sox).

Questa fonte accetta le seguenti opzioni:

layout_canale, cl
Specifica il layout del canale e può essere un numero intero o una stringa che rappresenta a
disposizione del canale. Il valore predefinito di layout_canale è "stereo".

Controlla la definizione di channel_layout_map in libavutil/layout_canale.c per la mappatura
tra stringhe e valori di layout del canale.

frequenza di campionamento, r
Specifica la frequenza di campionamento e il valore predefinito è 44100.

nb_campioni, n
Imposta il numero di campioni per frame richiesti.

Esempi

· Impostare la frequenza di campionamento su 48000 Hz e il layout del canale su AV_CH_LAYOUT_MONO.

annullalrc=r=48000:cl=4

· Eseguire la stessa operazione con una sintassi più ovvia:

anulsrc=r=48000:cl=mono

Tutti i parametri devono essere definiti in modo esplicito.

Flite
Sintetizzare un'espressione vocale utilizzando la libreria libflite.

Per abilitare la compilazione di questo filtro è necessario configurare FFmpeg con
"--enable-libflite".

Nota che la libreria flite non è thread-safe.

Il filtro accetta le seguenti opzioni:

voci_lista
Se impostato a 1, elenca i nomi delle voci disponibili ed esci immediatamente. Predefinito
il valore è 0.

nb_campioni, n
Imposta il numero massimo di campioni per fotogramma. Il valore predefinito è 512.

file di testo
Imposta il nome del file contenente il testo da pronunciare.

testo
Imposta il testo per parlare.

voce, v
Imposta la voce da utilizzare per la sintesi vocale. Il valore predefinito è "kal". Vedi anche il
voci_lista opzione.

Esempi

· Leggi da file discorso.txte sintetizzare il testo utilizzando la voce flite standard:

flite=file di testo=discorso.txt

· Leggere il testo specificato selezionando la voce "slt":

flite=text='Addio, povero diavolo di un Sub-Sub, il cui commentatore sono io':voice=slt

· Inserisci il testo in ffmpeg:

ffmpeg -f lavfi -i flite=text='Addio, povero diavolo di un Sub-Sub, il cui commentatore sono io':voice=slt

· Rendere ffplay pronunciare il testo specificato, utilizzando "flite" e il dispositivo "lavfi":

ffplay -f lavfi flite=text='Non essere più addolorato per quello che hai fatto.'

Per ulteriori informazioni su libflite, controlla:http://www.speech.cs.cmu.edu/flite/>

loro
Genera un segnale audio composto da un'onda sinusoidale con ampiezza 1/8.

Il segnale audio è bit-exact.

Il filtro accetta le seguenti opzioni:

frequenza, f
Imposta la frequenza della portante. L'impostazione predefinita è 440 Hz.

fattore_bip, b
Abilita un bip periodico ogni secondo con frequenza fattore_beep volte il vettore
frequenza. Il valore predefinito è 0, il che significa che il segnale acustico è disabilitato.

frequenza di campionamento, r
Specificare la frequenza di campionamento, il valore predefinito è 44100.

durata, d
Specificare la durata del flusso audio generato.

campioni_per_frame
Imposta il numero di campioni per frame di output, il valore predefinito è 1024.

Esempi

· Genera una semplice onda sinusoidale a 440 Hz:

loro

· Genera un'onda sinusoidale di 220 Hz con un segnale acustico di 880 Hz ogni secondo, per 5 secondi:

seno=220:4:d=5
seno=f=220:b=4:d=5
seno=frequenza=220:beep_factor=4:durata=5

AUDIO LAVELLI


Di seguito è riportata una descrizione dei sink audio attualmente disponibili.

buffersink
Archivia i frame audio e rendili disponibili alla fine della catena di filtri.

Questo sink è principalmente destinato all'uso programmatico, in particolare attraverso l'interfaccia
definito in libavfilter/buffersink.h o il sistema di opzioni.

Accetta un puntatore a una struttura AVABufferSinkContext, che definisce l'ingresso
formati dei buffer, da passare come parametro opaco a "avfilter_init_filter" per
inizializzazione.

annullare il lavandino
Dissipatore audio nullo; non fare assolutamente nulla con l'audio in ingresso. È principalmente utile come a
modello e per l'utilizzo in strumenti di analisi/debug.

VIDEO FILTRI


Quando configuri la tua build FFmpeg, puoi disabilitare qualsiasi filtro esistente usando
"--disabilita-filtri". L'output di configurazione mostrerà i filtri video inclusi nel tuo
costruire.

Di seguito è riportata una descrizione dei filtri video attualmente disponibili.

estratto alfa
Estrai il componente alfa dall'input come video in scala di grigi. Questo è particolarmente utile
con la alfamerge filtro.

alfamerge
Aggiungi o sostituisci il componente alfa dell'input primario con il valore in scala di grigi di a
secondo ingresso. Questo è destinato all'uso con estratto alfa per consentire la trasmissione o
memorizzazione di sequenze di fotogrammi che hanno alpha in un formato che non supporta un alpha
.

Ad esempio, per ricostruire fotogrammi interi da un normale video con codifica YUV e un video separato
video creato con estratto alfa, potresti usare:

film=in_alpha.mkv [alpha]; [in][alpha] alphamerge [fuori]

Poiché questo filtro è progettato per la ricostruzione, opera su sequenze di fotogrammi senza
considerando i timestamp e termina quando uno degli input raggiunge la fine del flusso. Questo sarà
causare problemi se la pipeline di codifica elimina i frame. Se stai cercando di applicare un'immagine
come sovrapposizione a un flusso video, considera il copertura filtro invece.

culo
Come il sottotitoli filtro, tranne per il fatto che non richiede libavcodec e libavformat per
opera. D'altra parte, è limitato ai file di sottotitoli ASS (Advanced Substation Alpha).

Questo filtro accetta la seguente opzione in aggiunta alle opzioni comuni dal
sottotitoli Filtro:

sagomatura
Imposta il motore di modellatura

I valori disponibili sono:

auto
Il motore di modellazione libass predefinito, che è il migliore disponibile.

semplice
Shaper veloce e indipendente dai caratteri che può fare solo sostituzioni

complesso
Shaper più lento che utilizza OpenType per le sostituzioni e il posizionamento

L'impostazione predefinita è "automatico".

atadenoise
Applicare un denoiser adattivo della media temporale all'ingresso video.

Il filtro accetta le seguenti opzioni:

0a Impostare la soglia A per il 1° piano. Il valore predefinito è 0.02. L'intervallo valido è compreso tra 0 e 0.3.

0b Impostare la soglia B per il 1° piano. Il valore predefinito è 0.04. L'intervallo valido è compreso tra 0 e 5.

1a Impostare la soglia A per il 2° piano. Il valore predefinito è 0.02. L'intervallo valido è compreso tra 0 e 0.3.

1b Impostare la soglia B per il 2° piano. Il valore predefinito è 0.04. L'intervallo valido è compreso tra 0 e 5.

2a Impostare la soglia A per il 3° piano. Il valore predefinito è 0.02. L'intervallo valido è compreso tra 0 e 0.3.

2b Impostare la soglia B per il 3° piano. Il valore predefinito è 0.04. L'intervallo valido è compreso tra 0 e 5.

La soglia A è progettata per reagire alle variazioni improvvise del segnale di ingresso e della soglia B
è progettato per reagire alle continue variazioni del segnale di ingresso.

s Imposta il numero di fotogrammi che il filtro utilizzerà per la media. Il valore predefinito è 33. Deve essere un numero dispari
nell'intervallo [5, 129].

bbox
Calcolare il riquadro di delimitazione per i pixel non neri nel piano di luminanza del fotogramma di input.

Questo filtro calcola il riquadro di delimitazione contenente tutti i pixel con un valore di luminanza
maggiore del valore minimo consentito. I parametri che descrivono il riquadro di delimitazione sono
stampato sul registro del filtro.

Il filtro accetta la seguente opzione:

min_val
Imposta il valore di luminanza minimo. Il valore predefinito è 16.

blackdetect
Rileva gli intervalli video che sono (quasi) completamente neri. Può essere utile per rilevare il capitolo
transizioni, pubblicità o registrazioni non valide. Le righe di output contengono il tempo per il
inizio, fine e durata dell'intervallo nero rilevato espresso in secondi.

Per visualizzare le righe di output, è necessario impostare il loglevel almeno su
valore AV_LOG_INFO.

Il filtro accetta le seguenti opzioni:

durata_min_nera, d
Imposta la durata minima del nero rilevata espressa in secondi. Deve essere un non
numero in virgola mobile negativo.

Il valore predefinito è 2.0.

rapporto_nero_immagine_esimo, pic_esimo
Imposta la soglia per considerare un'immagine "nera". Esprimi il valore minimo per
il rapporto:

/

per cui un'immagine è considerata nera. Il valore predefinito è 0.98.

pixel_nero_th, pixel_esimo
Imposta la soglia per considerare un pixel "nero".

La soglia esprime il valore massimo di luminanza del pixel per il quale un pixel è
considerato "nero". Il valore fornito viene scalato secondo la seguente equazione:

= + *

luminanza_intervallo_dimensione ed valore_luminanza_minimo dipendono dal formato video in ingresso, il
l'intervallo è [0-255] per i formati YUV full range e [16-235] per YUV non full range
formati.

Il valore predefinito è 0.10.

L'esempio seguente imposta la soglia massima dei pixel sul valore minimo e rileva
solo intervalli neri di 2 o più secondi:

blackdetect=d=2:pix_th=0.00

cornice nera
Rileva i frame che sono (quasi) completamente neri. Può essere utile per rilevare il capitolo
transizioni o pubblicità. Le linee di uscita sono costituite dal numero di frame del rilevato
frame, la percentuale di nero, la posizione nel file se nota o -1 e il
timestamp in secondi.

Per visualizzare le righe di output, è necessario impostare il loglevel almeno su
valore AV_LOG_INFO.

Accetta i seguenti parametri:

quantità
La percentuale dei pixel che devono essere al di sotto della soglia; il valore predefinito è 98.

soglia, trebbiare
La soglia al di sotto della quale un valore di pixel è considerato nero; il valore predefinito è 32.

miscela, miscela
Unisci due fotogrammi video l'uno nell'altro.

Il filtro "blend" prende due flussi di input ed emette un flusso, il primo input è il
il livello "superiore" e il secondo input è il livello "inferiore". L'uscita termina quando l'input più breve
termina.

Il filtro "tblend" (time blend) prende due fotogrammi consecutivi da un singolo flusso e
emette il risultato ottenuto fondendo il nuovo frame sopra il vecchio frame.

Segue una descrizione delle opzioni accettate.

c0_modalità
c1_modalità
c2_modalità
c3_modalità
all_mode
Imposta la modalità di fusione per un componente pixel specifico o per tutti i componenti pixel in caso di
all_mode. Il valore predefinito è "normale".

I valori disponibili per le modalità dei componenti sono:

aggiunta
ed
media
bruciare
scurire
differenza
differenza128
dividere
schivare
esclusione
splendore
luce forte
mix duro
alleggerire
luce lineare
moltiplicare
negazione
normale
or
copertura
fenice
luce puntiforme
riflettere
schermo
luce soffusa
sottrarre
luce vivida
xor
c0_opacità
c1_opacità
c2_opacità
c3_opacità
all_opacità
Imposta l'opacità della fusione per un componente pixel specifico o per tutti i componenti pixel in caso di
all_opacità. Utilizzato solo in combinazione con le modalità di fusione dei componenti pixel.

c0_espr
c1_espr
c2_espr
c3_espr
all_espr
Imposta l'espressione di fusione per un componente pixel specifico o per tutti i componenti pixel in caso di
all_espr. Si noti che le opzioni relative alla modalità verranno ignorate se impostate.

Le espressioni possono utilizzare le seguenti variabili:

N Il numero sequenziale del frame filtrato, a partire da 0.

X
Y le coordinate del campione corrente

W
H la larghezza e l'altezza del piano attualmente filtrato

SW
SH Scala di larghezza e altezza in base al piano attualmente filtrato. È il rapporto
tra il numero di pixel del piano luma corrispondente e quelli del piano corrente.
Ad esempio per YUV4:2:0 i valori sono "1,1" per il piano luma e "0.5,0.5" per
piani di crominanza.

T Tempo del frame corrente, espresso in secondi.

SUPERIORE, A
Valore del componente pixel nella posizione corrente per il primo fotogramma video (livello superiore).

METTER IL FONDO A, B
Valore del componente pixel nella posizione corrente per il secondo fotogramma video (in basso
strato).

più breve
Forza la terminazione quando termina l'input più breve. Il valore predefinito è 0. Questa opzione è
definito solo per il filtro "blend".

ripeti l'ultima
Continua ad applicare l'ultimo fotogramma in basso dopo la fine del flusso. Un valore di 0
disabilitare il filtro dopo aver raggiunto l'ultimo fotogramma del livello inferiore. Il valore predefinito è 1.
Questa opzione è definita solo per il filtro "blend".

Esempi

· Applicare la transizione dal livello inferiore al livello superiore nei primi 10 secondi:

blend=all_expr='A*(if(gte(T,10),1,T/10))+B*(1-(if(gte(T,10),1,T/10)))'

· Applicare l'effetto scacchiera 1x1:

blend=all_expr='if(eq(mod(X,2),mod(Y,2)),A,B)'

· Applicare l'effetto scopri sinistro:

blend=all_expr='if(gte(N*SW+X,W),A,B)'

· Applicare l'effetto scopri piumino:

blend=all_expr='if(gte(YN*SH,0),A,B)'

· Applicare l'effetto scopri in alto a sinistra:

blend=all_expr='if(gte(T*SH*40+Y,H)*gte((T*40*SW+X)*W/H,W),A,B)'

· Visualizza le differenze tra il fotogramma corrente e quello precedente:

tblend=all_mode=differenza128

sfocatura
Applicare un algoritmo boxblur al video in ingresso.

Accetta i seguenti parametri:

raggio_luminoso, lr
luma_power, lp
raggio_cromatico, cr
potenza_cromatica, cp
alfa_raggio, ar
potere_alpha, ap

Segue una descrizione delle opzioni accettate.

raggio_luminoso, lr
raggio_cromatico, cr
alfa_raggio, ar
Imposta un'espressione per il raggio del riquadro in pixel utilizzato per sfocare il corrispondente
piano di ingresso.

Il valore del raggio deve essere un numero non negativo e non deve essere maggiore del valore
dell'espressione "min(w,h)/2" per i piani luma e alpha, e di "min(cw,ch)/2"
per i piani di crominanza.

Valore predefinito per raggio_luminoso è "2". Se non specificato, raggio_cromatico ed raggio_alpha
di default al valore corrispondente impostato per raggio_luminoso.

Le espressioni possono contenere le seguenti costanti:

w
h La larghezza e l'altezza di input in pixel.

cw
ch La larghezza e l'altezza in pixel dell'immagine di crominanza di input.

hsub
vssub
I valori del sottocampione di crominanza orizzontale e verticale. Ad esempio, per il pixel
formato "yuv422p", hsub è 2 e vssub è 1.

luma_power, lp
potenza_cromatica, cp
potere_alpha, ap
Specifica quante volte il filtro boxblur viene applicato al piano corrispondente.

Valore predefinito per luma_power è 2. Se non specificato, potenza_cromatica ed potere_alpha
di default al valore corrispondente impostato per luma_power.

Un valore di 0 disabiliterà l'effetto.

Esempi

· Applicare un filtro boxblur con i raggi luminanza, crominanza e alfa impostati su 2:

boxblur=lumina_radius=2:lumina_power=1
casellasfocatura=2:1

· Imposta il raggio luma su 2 e il raggio alfa e chroma su 0:

boxblur=2:1:cr=0:ar=0

· Imposta i raggi di luminanza e crominanza su una frazione della dimensione del video:

boxblur=raggio_lumino=min(h\,w)/10:lumina_power=1:raggio_cromatico=min(cw\,ch)/10:power_chroma=1

codecview
Visualizza le informazioni esportate da alcuni codec.

Alcuni codec possono esportare informazioni tramite frame utilizzando side-data o altri mezzi. Per
Ad esempio, alcuni codec basati su MPEG esportano i vettori di movimento attraverso il esporta_mvs bandiera in
codec bandiere2 opzione.

Il filtro accetta la seguente opzione:

mv Imposta i vettori di movimento da visualizzare.

Bandiere disponibili per mv siamo:

pf MV previsti in avanti dei fotogrammi P

bf MV previsti in avanti dei fotogrammi B

bb MV predetti all'indietro dei fotogrammi B

Esempi

· Visualizza MV multidirezionali da P e B-Frame utilizzando ffplay:

ffplay -flags2 +export_mvs input.mpg -vf codecview=mv=pf+bf+bb

bilanciamento del colore
Modifica l'intensità dei colori primari (rosso, verde e blu) dei fotogrammi di input.

Il filtro consente di regolare un frame di input nelle ombre, nei mezzitoni o nelle alte luci
regioni per l'equilibrio rosso-ciano, verde-magenta o blu-giallo.

Un valore di regolazione positivo sposta il bilanciamento verso il colore primario, un valore negativo
verso il colore complementare.

Il filtro accetta le seguenti opzioni:

rs
gs
bs Regola le ombre rosse, verdi e blu (pixel più scuri).

rm
gm
bm Regola i mezzitoni rossi, verdi e blu (pixel medi).

rh
gh
bh Regola le luci rosse, verdi e blu (pixel più luminosi).

Gli intervalli consentiti per le opzioni sono "[-1.0, 1.0]". I valori predefiniti sono 0.

Esempi

· Aggiungi dominante di colore rosso alle ombre:

bilanciamento colore=rs=.3

chiave di colore
Chiavi colore dello spazio colore RGB.

Il filtro accetta le seguenti opzioni:

colore
Il colore che verrà sostituito con la trasparenza.

somiglianza
Percentuale di somiglianza con il colore chiave.

0.01 corrisponde solo al colore esatto della chiave, mentre 1.0 corrisponde a tutto.

brevettata
Percentuale di miscela.

0.0 rende i pixel completamente trasparenti o non trasparenti.

Valori più alti producono pixel semitrasparenti, con una trasparenza più alta tanto più
simile il colore dei pixel è al colore chiave.

Esempi

· Rendi trasparente ogni pixel verde nell'immagine di input:

ffmpeg -i input.png -vf colorkey=verde out.png

· Sovrapporre un video con schermo verde su un'immagine di sfondo statica.

ffmpeg -i background.png -i video.mp4 -filter_complex "[1:v]colorkey=0x3BBD1E:0.3:0.2[ckout];[0:v][ckout]overlay[out]" -map "[out]" output.flv

livelli di colore
Regola i fotogrammi di input video usando i livelli.

Il filtro accetta le seguenti opzioni:

rimino
gimin
bimin
mirare
Regola il punto nero di input rosso, verde, blu e alfa. Gli intervalli consentiti per le opzioni sono
"[-1.0, 1.0]". I valori predefiniti sono 0.

rimax
gimax
bimax
aimax
Regola il punto bianco di input rosso, verde, blu e alfa. Gli intervalli consentiti per le opzioni sono
"[-1.0, 1.0]". I valori predefiniti sono 1.

I livelli di input vengono utilizzati per schiarire le luci (toni chiari), scurire le ombre (scure
toni), modificare il bilanciamento dei toni chiari e scuri.

Romin
Gomin
bomin
amin
Regola il punto nero di output rosso, verde, blu e alfa. Gli intervalli consentiti per le opzioni sono
"[0, 1.0]". I valori predefiniti sono 0.

romax
gomax
bomax
aomax
Regola il punto bianco di output rosso, verde, blu e alfa. Gli intervalli consentiti per le opzioni sono
"[0, 1.0]". I valori predefiniti sono 1.

I livelli di uscita consentono la selezione manuale di un intervallo di livelli di uscita vincolato.

Esempi

· Rendi l'output video più scuro:

livelli di colore=rimin=0.058:gimin=0.058:bimin=0.058

· Aumenta il contrasto:

colorlevels=rimin=0.039:gimin=0.039:bimin=0.039:rimax=0.96:gimax=0.96:bimax=0.96

· Rendi più leggera l'uscita video:

livelli colore=rimax=0.902:gimax=0.902:bimax=0.902

· Aumenta la luminosità:

colorlevels=romin=0.5:gomin=0.5:bomin=0.5

miscelatore di canali di colore
Regola i fotogrammi di ingresso video rimescolando i canali di colore.

Questo filtro modifica un canale colore aggiungendo i valori associati agli altri canali
degli stessi pixel. Ad esempio se il valore da modificare è rosso, il valore in uscita sarà:

= * + * + * + *

Il filtro accetta le seguenti opzioni:

rr
rg
rb
ra Regola il contributo dei canali in ingresso rosso, verde, blu e alfa per l'uscita rosso
canale. Il valore predefinito è 1 per rre 0 per rg, rb ed ra.

gr
gg
gb
ga Regola il contributo dei canali in ingresso rosso, verde, blu e alfa per l'uscita verde
canale. Il valore predefinito è 1 per gge 0 per gr, gb ed ga.

br
bg
bb
ba Regola il contributo dei canali in ingresso rosso, verde, blu e alfa per l'uscita blu
canale. Il valore predefinito è 1 per bbe 0 per br, bg ed ba.

ar
ag
ab
aa Regola il contributo dei canali di ingresso rosso, verde, blu e alfa per l'uscita alfa
canale. Il valore predefinito è 1 per aae 0 per ar, ag ed ab.

Gli intervalli consentiti per le opzioni sono "[-2.0, 2.0]".

Esempi

· Converti sorgente in scala di grigi:

colorchannelmixer=.3:.4:.3:0:.3:.4:.3:0:.3:.4:.3

· Simula tonalità seppia:

colorchannelmixer=.393:.769:.189:0:.349:.686:.168:0:.272:.534:.131

matrice di colori
Converti matrice colore.

Il filtro accetta le seguenti opzioni:

src
dst Specificare la matrice del colore di origine e di destinazione. Entrambi i valori devono essere specificati.

I valori accettati sono:

bt709
BT.709

bt601
BT.601

smpte240m
SMPTE-240 M

FCC FCC

Ad esempio per convertire da BT.601 a SMPTE-240M, utilizzare il comando:

matricecolor=bt601:smpte240m

copia
Copia la sorgente di input invariata nell'output. Questo è principalmente utile per scopi di test.

raccolto
Ritaglia il video di input alle dimensioni date.

Accetta i seguenti parametri:

w, fuori_w
La larghezza del video in uscita. Il valore predefinito è "iw". Questa espressione viene valutata solo
una volta durante la configurazione del filtro, o quando il w or fuori_w viene inviato il comando.

h, fuori_h
L'altezza del video in uscita. Il valore predefinito è "ih". Questa espressione viene valutata
solo una volta durante la configurazione del filtro, o quando il h or fuori_h viene inviato il comando.

x La posizione orizzontale, nel video in ingresso, del bordo sinistro del video in uscita. Esso
il valore predefinito è "(in_w-out_w)/2". Questa espressione viene valutata per frame.

y La posizione verticale, nel video in ingresso, del bordo superiore del video in uscita. Esso
il valore predefinito è "(in_h-out_h)/2". Questa espressione viene valutata per frame.

mantenere_aspect
Se impostato su 1 forzerà il rapporto di aspetto del display di uscita a essere lo stesso dell'ingresso, di
modifica delle proporzioni del campione di output. Il valore predefinito è 0.

I fuori_w, fuori_h, x, y i parametri sono espressioni contenenti le seguenti costanti:

x
y I valori calcolati per x ed y. Vengono valutati per ogni nuovo frame.

in_w
in_h
La larghezza e l'altezza di input.

iw
ih Questi sono gli stessi di in_w ed in_h.

fuori_w
fuori_h
La larghezza e l'altezza dell'output (ritagliate).

ow
oh Questi sono gli stessi di fuori_w ed fuori_h.

a stesso iw / ih

sar rapporto di aspetto del campione di ingresso

dare rapporto di aspetto del display di input, è lo stesso di (iw / ih🇧🇷 sar

hsub
vssub
valori del sottocampione di crominanza orizzontale e verticale. Ad esempio per il formato pixel
"yuv422p" hsub è 2 e vssub è 1.

n Il numero del frame di input, a partire da 0.

inviare la posizione nel file del frame di input, NAN se sconosciuto

t Il timestamp espresso in secondi. È NAN se il timestamp di input è sconosciuto.

L'espressione per fuori_w può dipendere dal valore di fuori_h, e l'espressione per fuori_h
può dipendere da fuori_w, ma non possono dipendere da x ed y, come x ed y sono valutati dopo
fuori_w ed fuori_h.

I x ed y parametri specificano le espressioni per la posizione dell'angolo in alto a sinistra di
l'area di output (non ritagliata). Vengono valutati per ogni frame. Se il valore valutato
non è valido, viene approssimato al valore valido più vicino.

L'espressione per x può dipendere da y, e l'espressione per y può dipendere da x.

Esempi

· Area di ritaglio con dimensione 100x100 in posizione (12,34).

ritaglio=100:100:12:34

Usando le opzioni con nome, l'esempio sopra diventa:

ritaglia=w=100:h=100:x=12:y=34

· Ritaglia l'area di input centrale con dimensione 100x100:

ritaglio=100:100

· Ritaglia l'area di ingresso centrale con dimensioni 2/3 del video di ingresso:

ritaglio=2/3*in_w:2/3*in_h

· Ritaglia il quadrato centrale del video in ingresso:

raccolto=fuori_w=in_h
raccolto=in_h

· Delimitare il rettangolo con l'angolo in alto a sinistra posizionato in posizione 100:100 e il
nell'angolo in basso a destra corrispondente all'angolo in basso a destra dell'immagine di input.

ritaglio=in_w-100:in_h-100:100:100

· Ritaglia 10 pixel dai bordi sinistro e destro e 20 pixel dall'alto e dal basso
frontiere

ritaglia=in_w-2*10:in_h-2*20

· Mantieni solo il quarto in basso a destra dell'immagine di input:

crop=in_l/2:in_h/2:in_l/2:in_h/2

· Altezza del raccolto per ottenere l'armonia greca:

crop=in_w:1/PHI*in_w

· Applicare l'effetto tremante:

crop=in_w/2:in_h/2:(in_w-out_w)/2+((in_w-out_w)/2)*sin(n/10):(in_h-out_h)/2 +((in_h-out_h)/2)*sin(n/7)

· Applicare un effetto fotocamera irregolare a seconda del timestamp:

crop=in_w/2:in_h/2:(in_w-out_w)/2+((in_w-out_w)/2)*sin(t*10):(in_h-out_h)/2 +((in_h-out_h)/2)*sin(t*13)"

· Imposta x in base al valore di y:

crop=in_w/2:in_h/2:y:10+10*sin(n/10)

Comandi

Questo filtro supporta i seguenti comandi:

w, fuori_w
h, fuori_h
x
y Imposta larghezza/altezza del video in uscita e la posizione orizzontale/verticale nell'ingresso
video. Il comando accetta la stessa sintassi dell'opzione corrispondente.

Se l'espressione specificata non è valida, viene mantenuta al suo valore corrente.

rilevamento delle colture
Rileva automaticamente le dimensioni del ritaglio.

Calcola i parametri di ritaglio necessari e stampa i parametri consigliati tramite
il sistema di registrazione. Le dimensioni rilevate corrispondono all'area non nera dell'input
video.

Accetta i seguenti parametri:

limitare
Imposta una soglia del valore del nero più alta, che può essere facoltativamente specificata da zero (0)
a tutto (255 per i formati basati su 8 bit). Un valore di intensità maggiore del set
il valore è considerato non nero. Il valore predefinito è 24. Puoi anche specificare un valore
tra 0.0 e 1.0 che verrà ridimensionato in base alla profondità di bit del pixel
formato.

tondo
Il valore per cui la larghezza/altezza dovrebbe essere divisibile. Il valore predefinito è 16. L'offset
viene regolato automaticamente per centrare il video. Usa 2 per ottenere solo le dimensioni pari
(necessario per video 4:2:2). 16 è il migliore quando si codifica per la maggior parte dei codec video.

reset_count, azzerare
Imposta il contatore che determina dopo quanti frame cropdetect ripristinerà il
l'area video più grande rilevata in precedenza e ricominciare da capo per rilevare l'attuale ottimale
zona coltivata. Il valore predefinito è 0.

Questo può essere utile quando i loghi dei canali distorcono l'area video. 0 indica "mai"
reset', e restituisce l'area più grande incontrata durante la riproduzione.

curve
Applicare le regolazioni del colore utilizzando le curve.

Questo filtro è simile agli strumenti per le curve di Adobe Photoshop e GIMP. Ogni componente (rosso,
verde e blu) ha i suoi valori definiti da N punti chiave legati l'uno dall'altro usando un liscio
curva. L'asse x rappresenta i valori dei pixel dal frame di input e l'asse y il nuovo
valori in pixel da impostare per il fotogramma di output.

Per impostazione predefinita, una curva componente è definita dai due punti (0;0) ed (1;1). Questo crea un file
linea retta in cui ogni valore di pixel originale viene "aggiustato" al proprio valore, il che significa
nessuna modifica all'immagine.

Il filtro consente di ridefinire questi due punti e aggiungerne altri. Una nuova curva (usando a
interpolazione spline cubica naturale) sarà definita per passare senza problemi attraverso tutti questi nuovi
coordinate. I nuovi punti definiti devono essere strettamente crescenti sull'asse x, e
loro x ed y i valori devono essere nel [0;1] intervallo. Se le curve calcolate andassero
al di fuori degli spazi vettoriali, i valori verranno ritagliati di conseguenza.

Se non c'è un punto chiave definito in "x=0", il filtro inserirà automaticamente a (0;0)
punto. Allo stesso modo, se non c'è un punto chiave definito in "x=1", il filtro sarà
inserire automaticamente a (1;1) punto.

Il filtro accetta le seguenti opzioni:

preset
Seleziona una delle preimpostazioni di colore disponibili. Questa opzione può essere utilizzata in aggiunta al
r, g, b parametri; in questo caso, le opzioni successive hanno la priorità sul preset
i valori. I preset disponibili sono:

nessuna
colore_negativo
processo incrociato
più scuro
aumenta il contrasto
accendino
contrasto_lineare
contrasto_medio
negativo.
contrasto_forte
annata

L'impostazione predefinita è "nessuno".

maestro, m
Imposta i punti chiave principali. Questi punti definiranno una mappatura del secondo passaggio. è
a volte chiamato mappatura "luminanza" o "valore". Può essere utilizzato con r, g, b or contro tutti i
poiché si comporta come una LUT di post-elaborazione.

rosso, r
Imposta i punti chiave per il componente rosso.

verde, g
Imposta i punti chiave per il componente verde.

blu, b
Imposta i punti chiave per il componente blu.

contro tutti i Imposta i punti chiave per tutti i componenti (escluso il master). Può essere utilizzato in aggiunta
alle altre opzioni dei componenti dei punti chiave. In questo caso, i componenti non impostati saranno
fallback su questo contro tutti i impostazione.

psfile
Specificare un file di curve Photoshop (".asv") da cui importare le impostazioni.

Per evitare alcuni conflitti di sintassi filtergraph, ogni elenco di punti chiave deve essere definito utilizzando
la seguente sintassi: "x0/y0 x1/y1 x2/y2...".

Esempi

· Aumenta leggermente il livello medio del blu:

curve=blu='0.5/0.58'

· Effetto vintage:

curves=r='0/0.11 .42/.51 1/0.95':g='0.50/0.48':b='0/0.22 .49/.44 1/0.8'

Qui otteniamo le seguenti coordinate per ogni componente:

rosso "(0;0.11) (0.42;0.51) (1;0.95)"

green
"(0;0) (0.50;0.48) (1;1)"

blu
"(0;0.22) (0.49;0.44) (1;0.80)"

· L'esempio precedente può essere realizzato anche con il preset integrato associato:

curve=preimpostato=vintage

· O semplicemente:

curve=vintage

· Usa un preset di Photoshop e ridefinisci i punti del componente verde:

curves=psfile='MyCurvesPresets/purple.asv':green='0.45/0.53'

dctnoiz
Denoise frame utilizzando DCT 2D (filtro nel dominio della frequenza).

Questo filtro non è progettato per il tempo reale.

Il filtro accetta le seguenti opzioni:

sigma, s
Imposta la costante del rumore sigma.

La sezione sigma definisce una soglia rigida di "3 * sigma"; ogni coefficiente DCT (assoluto
valore) al di sotto di questa soglia viene eliminato.

Se hai bisogno di un filtro più avanzato, vedi espr.

L'impostazione predefinita è 0.

sovrapposizione
Imposta il numero di pixel sovrapposti per ogni blocco. Poiché il filtro può essere lento, potresti
vogliono ridurre questo valore, a costo di un filtro meno efficace e con il rischio di
vari manufatti.

Se il valore sovrapposto non consente di elaborare l'intera larghezza o altezza di input, a
verrà visualizzato un avviso e i bordi corrispondenti non verranno eliminati.

Il valore predefinito è misura del blocco-1, che è la migliore impostazione possibile.

espr, e
Impostare l'espressione del fattore coefficiente.

Per ogni coefficiente di un blocco DCT, questa espressione verrà valutata come moltiplicatore
valore per il coefficiente.

Se questa opzione è impostata, il sigma opzione verrà ignorata.

Il valore assoluto del coefficiente è accessibile tramite il tasto c variabile.

n Impostare il misura del blocco utilizzando il numero di bit. "1<n" definisce il misura del blocco, qual è
larghezza e altezza dei blocchi lavorati.

Il valore predefinito è 3 (8x8) e può essere elevato a 4 per misura del blocco di 16x16. Nota
che la modifica di questa impostazione ha enormi conseguenze sulla velocità di elaborazione. Anche un
dimensioni del blocco più grandi non significano necessariamente una migliore riduzione del rumore.

Esempi

Applicare un denoise con a sigma di 4.5:

dctdnoiz=4.5

La stessa operazione può essere ottenuta utilizzando il sistema di espressione:

dctdnoiz=e='gte(c, 4.5*3)'

Denoise violento utilizzando una dimensione del blocco di "16x16":

dctdnoiz=15:n=4

debandare
Rimuovi gli artefatti di banding dal video in ingresso. Funziona sostituendo i pixel a bande con
valore medio dei pixel di riferimento.

Il filtro accetta le seguenti opzioni:





Imposta la soglia di rilevamento delle bande per ogni piano. Il valore predefinito è 0.02. L'intervallo valido è
da 0.00003 a 0.5. Se la differenza tra il pixel corrente e il pixel di riferimento è inferiore a
soglia, sarà considerato come fasciato.

gamma, r
Intervallo di rilevamento delle bande in pixel. Il valore predefinito è 16. Se positivo, numero casuale nell'intervallo
0 per impostare il valore verrà utilizzato. Se negativo, verrà utilizzato il valore assoluto esatto. Il
l'intervallo definisce un quadrato di quattro pixel attorno al pixel corrente.

direzione, d
Imposta la direzione in radianti da cui verranno confrontati quattro pixel. Se positivo, casuale
verrà selezionata la direzione da 0 alla direzione impostata. Se negativo, esatto del valore assoluto
sarà scelto. Ad esempio la direzione 0, -PI o -2*PI radianti selezionerà solo i pixel attivati
stessa riga e -PI/2 sceglieranno solo i pixel sulla stessa colonna.

sfocatura
Se abilitato, il pixel corrente viene confrontato con il valore medio di tutti e quattro i dintorni
pixel. L'impostazione predefinita è abilitata. Se il pixel corrente disabilitato viene confrontato con tutti e quattro
pixel circostanti. Il pixel è considerato a bande se solo tutte e quattro le differenze con
i pixel circostanti sono inferiori alla soglia.

decimare
Elimina i fotogrammi duplicati a intervalli regolari.

Il filtro accetta le seguenti opzioni:

ciclo
Imposta il numero di fotogrammi da cui verrà eliminato uno. Impostandolo su N significa uno
cornice in ogni lotto di N i frame verranno eliminati. Il valore predefinito è 5.

duthresh
Imposta la soglia per il rilevamento dei duplicati. Se la metrica della differenza per un frame è
minore o uguale a questo valore, viene dichiarato duplicato. Il valore predefinito è 1.1

sctresh
Imposta la soglia di cambio scena. Il valore predefinito è 15.

Blockx
blocchi
Imposta la dimensione dei blocchi degli assi x e y utilizzati durante i calcoli metrici. Più grandi
i blocchi danno una migliore soppressione del rumore, ma danno anche un peggior rilevamento di piccoli
movimenti. Deve essere una potenza di due. Il valore predefinito è 32.

psrc
Contrassegna l'input principale come input pre-elaborato e attiva il flusso di input sorgente pulito. Questo
consente di pre-elaborare l'input con vari filtri per aiutare le metriche
calcolo mantenendo la selezione del fotogramma senza perdite. Quando è impostato su 1, il primo
stream è per l'input pre-elaborato e il secondo stream è la sorgente pulita da
dove vengono scelti i fotogrammi conservati. Il valore predefinito è 0.

chroma
Imposta se la crominanza viene considerata o meno nei calcoli metrici. Il valore predefinito è 1.

sgonfiare
Applica l'effetto sgonfia al video.

Questo filtro sostituisce il pixel con il locale(3x3) media prendendo in considerazione solo
valori inferiori al pixel.

Accetta le seguenti opzioni:

soglia0
soglia1
soglia2
soglia3
Limita la modifica massima per ciascun piano, il valore predefinito è 65535. Se 0, il piano rimarrà
invariato.

degiudicato
Rimuove il sussulto prodotto da contenuti telecinetici parzialmente interlacciati.

Judder può essere introdotto, ad esempio, da pull up filtro. Se la fonte originale fosse
contenuto parzialmente telecine, l'output di "pullup,dejudder" avrà una variabile
frequenza dei fotogrammi. Può modificare la frequenza dei fotogrammi registrata del contenitore. A parte questo cambiamento,
questo filtro non influirà sul video con frame rate costante.

L'opzione disponibile in questo filtro è:

ciclo
Specificare la lunghezza della finestra su cui si ripete il sussulto.

Accetta qualsiasi numero intero maggiore di 1. I valori utili sono:

4 Se l'originale è stato trasferito in telecine da 24 a 30 fps (da film a NTSC).

5 Se l'originale è stato girato in telecine da 25 a 30 fps (da PAL a NTSC).

20 Se una miscela dei due.

L'impostazione predefinita è 4.

dellogo
Elimina il logo di una stazione televisiva con una semplice interpolazione dei pixel circostanti. Basta impostare un
rettangolo che copre il logo e vederlo scomparire (e a volte qualcosa di ancora più brutto
appaiono - il tuo chilometraggio può variare).

Accetta i seguenti parametri:

x
y Specificare le coordinate dell'angolo in alto a sinistra del logo. Devono essere specificati.

w
h Specificare la larghezza e l'altezza del logo da cancellare. Devono essere specificati.

gruppo musicale, t
Specifica lo spessore del bordo sfocato del rettangolo (aggiunto a w ed h). Il
il valore predefinito è 4.

mostrare attraverso le sue creazioni
Quando è impostato su 1, sullo schermo viene disegnato un rettangolo verde per semplificare la ricerca del giusto
x, y, we h parametri. Il valore predefinito è 0.

Il rettangolo viene disegnato sui pixel più esterni che verranno (parzialmente) sostituiti con
valori interpolati. I valori dei pixel successivi immediatamente al di fuori di questo rettangolo
in ogni direzione verrà utilizzato per calcolare i valori dei pixel interpolati all'interno del
rettangolo.

Esempi

· Imposta un rettangolo che copre l'area con le coordinate dell'angolo in alto a sinistra 0,0 e la dimensione
100x77, e una banda di dimensione 10:

delogo=x=0:y=0:w=100:h=77:band=10

scuotere
Tentativo di correggere piccoli cambiamenti nello spostamento orizzontale e/o verticale. Questo filtro aiuta a rimuovere
vibrazioni della fotocamera dovute a una fotocamera in mano, urto con un treppiede, movimento su un veicolo, ecc.

Il filtro accetta le seguenti opzioni:

x
y
w
h Specificare un'area rettangolare dove limitare la ricerca dei vettori di movimento. Se desiderato
la ricerca dei vettori di movimento può essere limitata ad un'area rettangolare del frame
definito dall'angolo in alto a sinistra, dalla larghezza e dall'altezza. Questi parametri hanno lo stesso
significato come il filtro drawbox che può essere utilizzato per visualizzare la posizione del
rettangolo di selezione.

Ciò è utile quando il movimento simultaneo dei soggetti all'interno dell'inquadratura potrebbe essere
confuso per il movimento della telecamera dalla ricerca del vettore di movimento.

Se qualcuno o tutti di x, y, w ed h sono impostati su -1, viene utilizzato l'intero frame. Questo permette
opzioni successive da impostare senza specificare il riquadro di delimitazione per il vettore di movimento
ricerca.

Predefinito: cerca nell'intero frame.

rx
ry Specificare l'estensione massima del movimento nelle direzioni x e y nell'intervallo 0-64 pixel.
Predefinito 16.

bordo
Specificare come generare pixel per riempire gli spazi vuoti sul bordo della cornice. A disposizione
i valori sono:

vuoto, 0
Riempi gli zeri nelle posizioni vuote

originale, 1
Immagine originale in posizioni vuote

morsetto, 2
Valore del bordo estruso nelle posizioni vuote

specchio, 3
Bordo specchiato in posizioni vuote

Il valore predefinito è specchio.

misura del blocco
Specificare la dimensione del blocco da utilizzare per la ricerca del movimento. Intervallo 4-128 pixel, impostazione predefinita 8.

contrasto
Specificare la soglia di contrasto per i blocchi. Solo blocchi con più di quanto specificato
verrà considerato il contrasto (differenza tra i pixel più scuri e quelli più chiari). Gamma
1-255, predefinito 125.

Ricerca
Specificare la strategia di ricerca. I valori disponibili sono:

esauriente, 0
Imposta ricerca esaustiva

Di meno, 1
Imposta una ricerca meno esaustiva.

Il valore predefinito è globale.

Nome del file
Se impostato, nel file specificato viene scritto un registro dettagliato della ricerca del movimento.

aperto
Se impostato su 1, specificare utilizzando le funzionalità OpenCL, disponibile solo se FFmpeg era
configurato con "--enable-opencl". Il valore predefinito è 0.

detelecina
Applicare un esatto inverso dell'operazione di telecine. Richiede un modello predefinito
specificato utilizzando l'opzione pattern che deve essere uguale a quella passata al telecine
filtro.

Questo filtro accetta le seguenti opzioni:

primo_campo
superiore, t
prima il campo in alto

fondo, b
campo in basso prima Il valore predefinito è "in alto".

modello
Una stringa di numeri che rappresenta il modello di pulldown che desideri applicare. Il predefinito
il valore è 23.

start_frame
Un numero che rappresenta la posizione del primo fotogramma rispetto al telecine
modello. Questo deve essere utilizzato se il flusso viene interrotto. Il valore predefinito è 0.

dilatazione
Applicare l'effetto di dilatazione al video.

Questo filtro sostituisce il pixel con il locale(3x3) massimo.

Accetta le seguenti opzioni:

soglia0
soglia1
soglia2
soglia3
Limita la modifica massima per ciascun piano, il valore predefinito è 65535. Se 0, il piano rimarrà
invariato.

coordinate
Flag che specifica il pixel a cui fare riferimento. Il valore predefinito è 255, ovvero tutti gli otto pixel sono
Usato.

Segnalazioni a mappe di coordinate 3x3 locali come questa:

1 2 3
4/5
6 7 8

cassettiera
Disegna una casella colorata sull'immagine di input.

Accetta i seguenti parametri:

x
y Le espressioni che specificano le coordinate dell'angolo superiore sinistro del riquadro. è di default
a 0.

larghezza, w
altezza, h
Le espressioni che specificano la larghezza e l'altezza della scatola; se 0 sono
interpretato come larghezza e altezza di input. Il valore predefinito è 0.

colore, c
Specificare il colore della casella da scrivere. Per la sintassi generale di questa opzione, seleziona
la sezione "Colore" nel manuale ffmpeg-utils. Se viene utilizzato il valore speciale "invert",
il colore del bordo del riquadro è lo stesso del video con luma invertita.

spessore, t
L'espressione che imposta lo spessore del bordo del riquadro. Il valore predefinito è 3.

Vedi sotto per l'elenco delle costanti accettate.

I parametri per x, y, w ed h ed t sono espressioni contenenti le seguenti costanti:

dare Il rapporto di aspetto del display in ingresso, è lo stesso di (w / h🇧🇷 sar.

hsub
vssub
valori del sottocampione di crominanza orizzontale e verticale. Ad esempio per il formato pixel
"yuv422p" hsub è 2 e vssub è 1.

in_h, ih
in_w, iw
La larghezza e l'altezza di input.

sar Le proporzioni del campione di input.

x
y Le coordinate di offset x e y in cui viene disegnata la casella.

w
h La larghezza e l'altezza della casella disegnata.

t Lo spessore della scatola disegnata.

Queste costanti consentono il x, y, w, h ed t espressioni per riferirsi l'una all'altra, quindi tu
può ad esempio specificare "y=x/dar" o "h=w/dar".

Esempi

· Disegna una casella nera attorno al bordo dell'immagine di input:

cassettiera

· Disegna un riquadro con il colore rosso e un'opacità del 50%:

cassetto=10:20:200:60:[email protected]

L'esempio precedente può essere specificato come:

cassetto=x=10:y=20:w=200:h=60:colore=[email protected]

· Riempi la casella con il colore rosa:

cassetto=x=10:y=10:w=100:h=100:colore=[email protected]:t=max

· Disegna una maschera rossa 2:2.40 da 1 pixel:

drawbox=x=-t:y=0.5*(ih-iw/2.4)-t:w=iw+t*2:h=iw/2.4+t*2:t=2:c=red

grafico, adrawgraph
Disegna un grafico utilizzando i metadati video o audio di input.

Accetta i seguenti parametri:

m1 Imposta la chiave dei metadati del primo fotogramma da cui verranno utilizzati i valori dei metadati per disegnare un grafico.

fg1 Imposta la prima espressione del colore di primo piano.

m2 Imposta la chiave dei metadati del secondo frame da cui verranno utilizzati i valori dei metadati per disegnare un grafico.

fg2 Imposta la seconda espressione del colore di primo piano.

m3 Imposta la chiave dei metadati del terzo frame da cui verranno utilizzati i valori dei metadati per disegnare un grafico.

fg3 Imposta la terza espressione del colore di primo piano.

m4 Imposta la chiave dei metadati del quarto fotogramma da cui verranno utilizzati i valori dei metadati per disegnare un grafico.

fg4 Imposta la quarta espressione del colore di primo piano.

verbale Imposta il valore minimo del valore dei metadati.

max Imposta il valore massimo del valore dei metadati.

bg Imposta il colore di sfondo del grafico. Il valore predefinito è bianco.

modo
Imposta la modalità grafico.

I valori disponibili per la modalità sono:

bar
punto
linea

L'impostazione predefinita è "linea".

scorrere
Imposta la modalità di scorrimento.

I valori disponibili per la diapositiva sono:

telaio
Disegna una nuova cornice quando viene raggiunto il bordo destro.

sostituire
Sostituisci le vecchie colonne con quelle nuove.

scorrere
Scorri da destra a sinistra.

scorri
Scorri da sinistra a destra.

L'impostazione predefinita è "cornice".

Taglia
Imposta la dimensione del video grafico. Per la sintassi di questa opzione, controlla il "Video dimensione" pagina
in , il ffmpeg-utils Manuale. Il valore predefinito è "900x256".

Le espressioni di colore di primo piano possono utilizzare le seguenti variabili:

MIN Valore minimo del valore dei metadati.

MAX Valore massimo del valore dei metadati.

VAL Valore della chiave dei metadati corrente.

Il colore è definito come 0xAABBGGRR.

Esempio di utilizzo dei metadati da statistiche del segnale Filtro:

signalstats,drawgraph=lavfi.signalstats.YAVG:min=0:max=255

Esempio di utilizzo dei metadati da ebur128 Filtro:

ebur128=metadata=1,adrawgraph=lavfi.r128.M:min=-120:max=5

griglia
Disegna una griglia sull'immagine di input.

Accetta i seguenti parametri:

x
y Le espressioni che specificano le coordinate di qualche punto di intersezione della griglia
(destinato a configurare l'offset). Entrambi di default su 0.

larghezza, w
altezza, h
Le espressioni che specificano la larghezza e l'altezza della cella della griglia, se 0 sono
interpretato come larghezza e altezza di input, rispettivamente, meno "spessore", quindi image
viene inquadrato. Il valore predefinito è 0.

colore, c
Specificare il colore della griglia. Per la sintassi generale di questa opzione, controlla il
Sezione "Colore" nel manuale ffmpeg-utils. Se viene utilizzato il valore speciale "invert", il
il colore della griglia è lo stesso del video con luma invertita.

spessore, t
L'espressione che imposta lo spessore della linea della griglia. Il valore predefinito è 1.

Vedi sotto per l'elenco delle costanti accettate.

I parametri per x, y, w ed h ed t sono espressioni contenenti le seguenti costanti:

dare Il rapporto di aspetto del display in ingresso, è lo stesso di (w / h🇧🇷 sar.

hsub
vssub
valori del sottocampione di crominanza orizzontale e verticale. Ad esempio per il formato pixel
"yuv422p" hsub è 2 e vssub è 1.

in_h, ih
in_w, iw
La larghezza e l'altezza della cella della griglia di input.

sar Le proporzioni del campione di input.

x
y Le coordinate x e y di un punto di intersezione della griglia (destinate a configurare
compensare).

w
h La larghezza e l'altezza della cella disegnata.

t Lo spessore della cella disegnata.

Queste costanti consentono il x, y, w, h ed t espressioni per riferirsi l'una all'altra, quindi tu
può ad esempio specificare "y=x/dar" o "h=w/dar".

Esempi

· Disegna una griglia con cella 100x100 pixel, spessore 2 pixel, con colore rosso e an
opacità del 50%:

griglia di disegno=larghezza=100:altezza=100:spessore=2:colore=[email protected]

· Disegna una griglia 3x3 bianca con un'opacità del 50%:

griglia di disegno=w=iw/3:h=ih/3:t=2:c=[email protected]

DrawText
Disegna una stringa di testo o un testo da un file specificato sopra un video, usando libfreetype
biblioteca.

Per abilitare la compilazione di questo filtro, è necessario configurare FFmpeg con
"--enable-libfreetype". Per abilitare il fallback di carattere predefinito e il fonte opzione di cui hai bisogno
configurare FFmpeg con "--enable-libfontconfig". Per abilitare il text_shaping opzione, tu
è necessario configurare FFmpeg con "--enable-libfibidi".

Sintassi

Accetta i seguenti parametri:

nella scatola Utilizzato per disegnare un riquadro attorno al testo utilizzando il colore di sfondo. Il valore deve essere 1
(abilita) o 0 (disabilita). Il valore predefinito di nella scatola è 0.

boxborderw
Imposta la larghezza del bordo da disegnare attorno alla scatola usando colore della scatola. Il predefinito
valore di boxborderw è 0.

colore della scatola
Il colore da utilizzare per disegnare il riquadro intorno al testo. Per la sintassi di questa opzione, seleziona
la sezione "Colore" nel manuale ffmpeg-utils.

Il valore predefinito di colore della scatola e bianco".

confine
Imposta la larghezza del bordo da disegnare attorno al testo usando colore del bordo.
valore predefinito di confine è 0.

colore del bordo
Imposta il colore da utilizzare per disegnare il bordo attorno al testo. Per la sintassi di questo
opzione, controlla la sezione "Colore" nel manuale di ffmpeg-utils.

Il valore predefinito di colore del bordo è nero".

espansione
Seleziona come testo è ampliato. Può essere "none", "strftime" (deprecato) o
"normale" (predefinito). Vedi il drawtext_expansion, Testo espansione sezione sottostante per
dettagli.

fix_bounds
Se vero, controlla e correggi le coordinate del testo per evitare il ritaglio.

colore del carattere
Il colore da utilizzare per disegnare i caratteri. Per la sintassi di questa opzione, controlla il
Sezione "Colore" nel manuale ffmpeg-utils.

Il valore predefinito di colore del carattere è nero".

fontcolor_expr
Stringa che viene espansa allo stesso modo di testo per ottenere la dinamica colore del carattere valore. Di
impostazione predefinita questa opzione ha un valore vuoto e non viene elaborata. Quando questa opzione è impostata, è
sostituisce colore del carattere opzione.

fonte
La famiglia di caratteri da utilizzare per disegnare il testo. Per impostazione predefinita Sans.

file di font
Il file del carattere da utilizzare per disegnare il testo. Il percorso deve essere incluso. Questo parametro
è obbligatorio se il supporto per fontconfig è disabilitato.

disegnare
Questa opzione non esiste, si prega di consultare il sistema di timeline

alfa
Disegna il testo applicando la fusione alfa. Il valore può essere un numero compreso tra 0.0
e 1.0 L'espressione accetta le stesse variabili x, y fare. Il valore predefinito è 1.
Si prega di vedere fontcolor_expr

dimensione del font
La dimensione del carattere da utilizzare per disegnare il testo. Il valore predefinito di dimensione del font è 16.

text_shaping
Se impostato su 1, prova a modellare il testo (ad esempio, invertire l'ordine da destra a
testo a sinistra e unire caratteri arabi) prima di disegnarlo. Altrimenti, disegna semplicemente il
testo esattamente come indicato. Per impostazione predefinita 1 (se supportato).

ft_load_flags
I flag da utilizzare per il caricamento dei font.

I flag mappano i flag corrispondenti supportati da libfreetype e sono una combinazione
dei seguenti valori:

difetto
nessuna_scala
nessun_suggerimento
cedere
no_bitmap
layout_verticale
force_autohint
crop_bitmap
pedante
ignore_global_advance_width
nessuna_ricorrenza
ignora_trasforma
monocromatico
disegno_lineare
no_autohint

Il valore predefinito è "predefinito".

Per maggiori informazioni consultare la documentazione per i flag libfreetype di FT_LOAD_*.

colore dell'ombra
Il colore da utilizzare per disegnare un'ombra dietro il testo disegnato. Per la sintassi di
questa opzione, controlla la sezione "Colore" nel manuale di ffmpeg-utils.

Il valore predefinito di colore dell'ombra è nero".

ombrax
ombroso
Gli offset x e y per la posizione dell'ombra del testo rispetto alla posizione del
testo. Possono essere valori positivi o negativi. Il valore predefinito per entrambi è
"0".

numero_inizio
Il numero di frame iniziale per la variabile n/frame_num. Il valore predefinito è "0".

dimensione della scheda
La dimensione in numero di spazi da utilizzare per il rendering della scheda. Il valore predefinito è 4.

codice temporale
Imposta la rappresentazione del timecode iniziale nel formato "hh:mm:ss[:;.]ff". Può essere usato
con o senza parametro di testo. timecode_rate l'opzione deve essere specificata.

frequenza_timecode, Vota, r
Imposta la frequenza dei fotogrammi del codice di tempo (solo codice di tempo).

testo
La stringa di testo da disegnare. Il testo deve essere una sequenza di caratteri con codifica UTF-8.
Questo parametro è obbligatorio se nessun file è specificato con il parametro file di testo.

file di testo
Un file di testo contenente il testo da disegnare. Il testo deve essere una sequenza di codifica UTF-8
caratteri.

Questo parametro è obbligatorio se non viene specificata alcuna stringa di testo con il parametro testo.

Se entrambi testo ed file di testo sono specificati, viene generato un errore.

ricaricare
Se impostato a 1, il file di testo verrà ricaricato prima di ogni fotogramma. Assicurati di aggiornarlo
atomicamente, o può essere letto parzialmente, o addirittura fallire.

x
y Le espressioni che specificano gli offset in cui verrà disegnato il testo all'interno del video
portafoto. Sono relativi al bordo superiore/sinistro dell'immagine di output.

Il valore predefinito di x ed y è "0".

Vedi sotto per l'elenco delle costanti e delle funzioni accettate.

I parametri per x ed y sono espressioni contenenti le seguenti costanti e
funzioni:

dare rapporto di aspetto del display di input, è lo stesso di (w / h🇧🇷 sar

hsub
vssub
valori del sottocampione di crominanza orizzontale e verticale. Ad esempio per il formato pixel
"yuv422p" hsub è 2 e vssub è 1.

linea_h, lh
l'altezza di ogni riga di testo

principale_h, h, H
l'altezza di input

principale_w, w, W
la larghezza di input

max_glifo_a, salita
la distanza massima dalla linea di base alla coordinata griglia più alta/superiore utilizzata per
posizionare un punto di contorno del glifo, per tutti i glifi renderizzati. È un valore positivo, grazie
all'orientamento della griglia con l'asse Y verso l'alto.

max_glifo_d, discesa
la distanza massima dalla linea di base alla coordinata della griglia più bassa utilizzata per posizionare a
punto di contorno del glifo, per tutti i glifi renderizzati. Questo è un valore negativo, a causa di
l'orientamento della griglia, con l'asse Y verso l'alto.

max_glifo_h
altezza massima del glifo, ovvero l'altezza massima per tutti i glifi contenuti nel
testo reso, è equivalente a salita - discesa.

max_glifo_w
larghezza massima del glifo, ovvero la larghezza massima per tutti i glifi contenuti nel
testo reso

n il numero di frame di input, a partire da 0

rand (min, massimo)
restituisce un numero casuale compreso tra verbale ed max

sar Le proporzioni del campione di input.

t timestamp espresso in secondi, NAN se il timestamp di input è sconosciuto

testo_h, th
l'altezza del testo renderizzato

testo_w, tw
la larghezza del testo renderizzato

x
y le coordinate di offset x e y in cui viene disegnato il testo.

Questi parametri consentono il x ed y espressioni per riferirsi a vicenda, in modo da poter
esempio specificare "y=x/dar".

Testo espansione

If espansione è impostato su "strftime", il filtro riconosce strftime() sequenze in
testo fornito e li espande di conseguenza. Controlla la documentazione di strftime(). Questo
funzione è deprecata.

If espansione è impostato su "none", il testo viene stampato alla lettera.

If espansione è impostato su "normale" (che è l'impostazione predefinita), il seguente meccanismo di espansione
viene utilizzato.

Il carattere barra rovesciata \, seguito da qualsiasi carattere, si espande sempre al secondo
carattere.

La sequenza della forma "%{...}" viene espansa. Il testo tra le parentesi graffe è una funzione
nome, possibilmente seguito da argomenti separati da ':'. Se gli argomenti contengono special
caratteri o delimitatori (':' o '}'), devono essere preceduti da caratteri di escape.

Nota che probabilmente devono anche essere sfuggiti come valore per il testo opzione nel
stringa dell'argomento del filtro e come argomento del filtro nella descrizione del grafico del filtro, e
eventualmente anche per il guscio, che realizza fino a quattro livelli di fuga; usando un file di testo
evita questi problemi.

Sono disponibili le seguenti funzioni:

espr, e
Il risultato della valutazione dell'espressione.

Deve prendere un argomento che specifichi l'espressione da valutare, che accetta il
stesse costanti e funzioni di x ed y i valori. Nota che non tutte le costanti dovrebbero
essere utilizzato, ad esempio la dimensione del testo non è nota quando si valuta l'espressione, quindi il
costante testo_w ed testo_h avrà un valore indefinito.

expr_int_format, FEI
Valuta il valore dell'espressione e l'output come intero formattato.

Il primo argomento è l'espressione da valutare, così come per il espr funzione.
Il secondo argomento specifica il formato di output. I valori consentiti sono x, X, d ed u.
Sono trattati esattamente come nella funzione "printf". Il terzo parametro è opzionale
e imposta il numero di posizioni assunte dall'uscita. Può essere usato per aggiungere imbottitura
con zeri da sinistra.

gmtime
L'ora in cui il filtro è in esecuzione, espresso in UTC. Può accettare un argomento:
a strftime() stringa di formato.

ora locale
L'ora in cui è in esecuzione il filtro, espressa nel fuso orario locale. Può
accettare un argomento: a strftime() stringa di formato.

metadati
Metadati del fotogramma. Deve prendere un argomento che specifica la chiave dei metadati.

n, numero_fotogramma
Il numero di frame, a partire da 0.

pict_type
Una descrizione di 1 carattere del tipo di immagine corrente.

pts Il timestamp del frame corrente. Possono essere necessari fino a due argomenti.

Il primo argomento è il formato del timestamp; il valore predefinito è "flt" per secondi come
un numero decimale con precisione al microsecondo; "hms" sta per formattato
[-]HH:MM:SS.mmm timestamp con precisione al millisecondo.

Il secondo argomento è un offset aggiunto al timestamp.

Esempi

· Disegna "Testo di prova" con il carattere FreeSerif, utilizzando i valori predefiniti per l'opzionale
parametri.

drawtext="fontfile=/usr/share/fonts/truetype/freefont/FreeSerif.ttf: text='Testo di prova'"

· Disegna 'Testo di prova' con il carattere FreeSerif di dimensione 24 in posizione x=100 e y=50 (contando
dall'angolo in alto a sinistra dello schermo), il testo è giallo con un riquadro rosso intorno. Entrambi
il testo e il riquadro hanno un'opacità del 20%.

drawtext="fontfile=/usr/share/fonts/truetype/freefont/FreeSerif.ttf: text='Testo di prova':\
x=100: y=50: dimensione carattere=24: colore carattere=[email protected]: scatola=1: scatola colore=[email protected]"

Nota che le virgolette non sono necessarie se non vengono utilizzati spazi all'interno del
lista parametri.

· Mostra il testo al centro del fotogramma video:

drawtext="fontsize=30:fontfile=FreeSerif.ttf:text='ciao mondo':x=(w-text_w)/2:y=(h-text_h)/2"

· Mostra una riga di testo che scorre da destra a sinistra nell'ultima riga del fotogramma video. Il
filetto LINEA LUNGA si presume che contenga una singola riga senza nuove righe.

drawtext="fontsize=15:fontfile=FreeSerif.ttf:text=LONG_LINE:y=h-line_h:x=-50*t"

· Mostra il contenuto del file CREDITS dalla parte inferiore della cornice e scorrere verso l'alto.

drawtext="fontsize=20:fontfile=FreeSerif.ttf:textfile=CREDITS:y=h-20*t"

· Disegna una singola lettera verde "g", al centro del video in ingresso. La linea di base del glifo
è posizionato a metà altezza dello schermo.

drawtext="fontsize=60:fontfile=FreeSerif.ttf:fontcolor=green:text=g:x=(w-max_glyph_w)/2:y=h/2-ascent"

· Mostra il testo per 1 secondo ogni 3 secondi:

drawtext="fontfile=FreeSerif.ttf:fontcolor=white:x=100:y=x/dar:enable=lt(mod(t\,3)\,1):text='blink'"

· Utilizzare fontconfig per impostare il carattere. Nota che i due punti devono essere sfuggiti.

drawtext='fontfile=Linux Libertine O-40\:style=Semibold:text=FFmpeg'

· Stampa la data di una codifica in tempo reale (vedi strftime(3)):

drawtext='fontfile=FreeSans.ttf:text=%{localtime\:%a %b %d %Y}'

· Mostra testo in dissolvenza in entrata e in uscita (apparendo/scomparendo):

#!/bin/sh
DS=1.0 # inizio visualizzazione
DE=10.0 # mostra fine
FID=1.5 # durata dissolvenza
FOD=5 # durata della dissolvenza in uscita
ffplay -f lavfi "color,drawtext=text=TEST:fontsize=50:fontfile=FreeSerif.ttf:fontcolor_expr=ff0000%{eif\\\\: clip(255*(1*tra(t\\, $DS + $FID\\, $DE - $FOD) + ((t - $DS)/$FID)*tra(t\\, $DS\\, $DS + $FID) + (-(t - $DE) /$FOD)*tra(t\\, $DE - $FOD\\, $DE) )\\, 0\\, 255) \\\\: x\\\\: 2 }"

Per ulteriori informazioni su libfreetype, controlla:http://www.freetype.org/>.

Per ulteriori informazioni su fontconfig, controlla:
<http://freedesktop.org/software/fontconfig/fontconfig-user.html>.

Per ulteriori informazioni su libfibidi, controllare:http://fribidi.org/>.

rilevamento dei bordi
Rileva e disegna i bordi. Il filtro utilizza l'algoritmo Canny Edge Detection.

Il filtro accetta le seguenti opzioni:

Basso
alto
Imposta i valori di soglia bassa e alta utilizzati dall'algoritmo di soglia Canny.

La soglia alta seleziona i pixel del bordo "forti", che vengono quindi collegati tramite
8-connettività con i pixel del bordo "deboli" selezionati dalla soglia bassa.

Basso ed alto i valori di soglia devono essere scelti nell'intervallo [0,1], e Basso dovrebbe essere
minore o uguale a alto.

Valore predefinito per Basso è "20/255" e il valore predefinito per alto è "50/255".

modo
Definire la modalità di disegno.

fili
Disegna fili bianchi/grigi su sfondo nero.

mix di colori
Mescola i colori per creare un effetto pittura/cartone animato.

Il valore predefinito è fili.

Esempi

· Rilevamento del fronte standard con valori personalizzati per la soglia di isteresi:

edgedetect=basso=0.1:alto=0.4

· Effetto pittura senza sogliatura:

edgedetect=modalità=colormix:alta=0

eq
Imposta luminosità, contrasto, saturazione e regolazione gamma approssimativa.

Il filtro accetta le seguenti opzioni:

contrasto
Imposta l'espressione di contrasto. Il valore deve essere un valore float nell'intervallo da "-2.0" a 2.0.
Il valore predefinito è "0".

luminosità
Imposta l'espressione della luminosità. Il valore deve essere un valore float nell'intervallo da "-1.0" a 1.0.
Il valore predefinito è "0".

saturazione
Imposta l'espressione di saturazione. Il valore deve essere un float nell'intervallo da 0.0 a 3.0. Il
il valore predefinito è "1".

gamma
Imposta l'espressione gamma. Il valore deve essere un float nell'intervallo da 0.1 a 10.0. Il predefinito
il valore è "1".

gamma_r
Imposta l'espressione gamma per il rosso. Il valore deve essere un float nell'intervallo da 0.1 a 10.0. Il
il valore predefinito è "1".

gamma_g
Imposta l'espressione gamma per il verde. Il valore deve essere un float nell'intervallo da 0.1 a 10.0.
Il valore predefinito è "1".

gamma_b
Imposta l'espressione gamma per il blu. Il valore deve essere un float nell'intervallo da 0.1 a 10.0. Il
il valore predefinito è "1".

peso_gamma
Imposta l'espressione del peso gamma. Può essere utilizzato per ridurre l'effetto di una gamma alta
valore sulle aree luminose dell'immagine, ad esempio per evitare che vengano sovraamplificate e semplicemente semplici
bianco. Il valore deve essere un float nell'intervallo da 0.0 a 1.0. Un valore di 0.0 trasforma la gamma
correzione fino in fondo mentre 1.0 lo lascia alla sua piena forza. L'impostazione predefinita è "1".

eval
Imposta quando le espressioni per luminosità, contrasto, saturazione e gamma
vengono valutati.

Accetta i seguenti valori:

init
valuta le espressioni solo una volta durante l'inizializzazione del filtro o quando un comando
è processato

telaio
valutare le espressioni per ogni frame in arrivo

Il valore predefinito è init.

Le espressioni accettano i seguenti parametri:

n conteggio frame del frame in ingresso a partire da 0

inviare posizione in byte del pacchetto corrispondente nel file di input, NAN se non specificato

r frame rate del video in ingresso, NAN se il frame rate in ingresso è sconosciuto

t timestamp espresso in secondi, NAN se il timestamp di input è sconosciuto

Comandi

Il filtro supporta i seguenti comandi:

contrasto
Imposta l'espressione di contrasto.

luminosità
Imposta l'espressione della luminosità.

saturazione
Imposta l'espressione di saturazione.

gamma
Imposta l'espressione gamma.

gamma_r
Imposta l'espressione gamma_r.

gamma_g
Imposta l'espressione gamma_g.

gamma_b
Imposta l'espressione gamma_b.

peso_gamma
Imposta l'espressione gamma_weight.

Il comando accetta la stessa sintassi dell'opzione corrispondente.

Se l'espressione specificata non è valida, viene mantenuta al suo valore corrente.

erosione
Applicare l'effetto erosione al video.

Questo filtro sostituisce il pixel con il locale(3x3) minimo.

Accetta le seguenti opzioni:

soglia0
soglia1
soglia2
soglia3
Limita la modifica massima per ciascun piano, il valore predefinito è 65535. Se 0, il piano rimarrà
invariato.

coordinate
Flag che specifica il pixel a cui fare riferimento. Il valore predefinito è 255, ovvero tutti gli otto pixel sono
Usato.

Segnalazioni a mappe di coordinate 3x3 locali come questa:

1 2 3
4/5
6 7 8

piani di estrazione
Estrai i componenti del canale colore dal flusso video in ingresso in un video separato in scala di grigi
flussi.

Il filtro accetta la seguente opzione:

piani
Imposta i piani da estrarre.

I valori disponibili per gli aerei sono:

y
u
v
a
r
g
b

La scelta di piani non disponibili nell'input risulterà in un errore. questo significa che tu
non è possibile selezionare piani "r", "g", "b" con piani "y", "u", "v" contemporaneamente.

Esempi

· Estrai il componente del canale colore luma, u e v dal frame video in ingresso in 3 scala di grigi
uscite:

ffmpeg -i video.avi -filter_complex 'extractplanes=y+u+v[y][u][v]' -map '[y]' y.avi -map '[u]' u.avi -map '[ v]' v.avi

elbg
Applicare un effetto di posterizzazione utilizzando l'algoritmo ELBG (Enhanced LBG).

Per ogni immagine di input, il filtro calcolerà la mappatura ottimale dall'input al
output data la lunghezza del codebook, ovvero il numero di colori di output distinti.

Questo filtro accetta le seguenti opzioni.

lunghezza_libro_codici, l
Imposta la lunghezza del codebook. Il valore deve essere un numero intero positivo e rappresenta il numero
di colori di output distinti. Il valore predefinito è 256.

nb_passi, n
Imposta il numero massimo di iterazioni da applicare per calcolare la mappatura ottimale. Il
più alto è il valore migliore è il risultato e maggiore è il tempo di calcolo. Predefinito
il valore è 1.

seme, s
Imposta un seme casuale, deve essere un numero intero compreso tra 0 e UINT32_MAX. Altrimenti
specificato, o se impostato esplicitamente a -1, il filtro proverà a utilizzare un buon seme casuale
sulla base del massimo sforzo.

amico8
Imposta il formato dei pixel di output di pal8. Questa opzione non funziona con una lunghezza del codebook maggiore
di 256.

dissolvenza
Applica un effetto di dissolvenza in entrata/uscita al video in ingresso.

Accetta i seguenti parametri:

Digitare, t
Il tipo di effetto può essere "in" per una dissolvenza in apertura o "out" per una dissolvenza in chiusura.
L'impostazione predefinita è "in".

frame_iniziale, s
Specificare il numero del fotogramma da cui iniziare ad applicare l'effetto dissolvenza. Il valore predefinito è 0.

nb_frame, n
Il numero di fotogrammi che dura l'effetto dissolvenza. Al termine dell'effetto di dissolvenza, il
il video in uscita avrà la stessa intensità del video in ingresso. Alla fine della dissolvenza-
out, il video in uscita verrà riempito con il selezionato colore. L'impostazione predefinita è
25

alfa
Se impostato su 1, dissolve solo il canale alfa, se ne esiste uno sull'ingresso. Il valore predefinito è 0.

Ora di inizio, st
Specificare il timestamp (in secondi) del fotogramma per iniziare ad applicare l'effetto dissolvenza. Se
sono specificati sia start_frame che start_time, la dissolvenza inizierà a seconda di quale arriva
Ultimo. Il valore predefinito è 0.

durata, d
Il numero di secondi per i quali l'effetto dissolvenza deve durare. Alla fine della dissolvenza in entrata
effetto il video in uscita avrà la stessa intensità del video in ingresso, alla fine di
la transizione in dissolvenza il video in uscita sarà riempito con il selezionato colore. Se
vengono specificati sia la durata che nb_frames, viene utilizzata la durata. Il valore predefinito è 0 (nb_frames
viene utilizzato per impostazione predefinita).

colore, c
Specificare il colore della dissolvenza. L'impostazione predefinita è "nero".

Esempi

· Dissolvenza nei primi 30 fotogrammi del video:

dissolvenza=in:0:30

Il comando sopra è equivalente a:

dissolvenza=t=in:s=0:n=30

· Dissolvenza degli ultimi 45 fotogrammi di un video di 200 fotogrammi:

dissolvenza=fuori:155:45
fade=type=out:start_frame=155:nb_frames=45

· Dissolvenza nei primi 25 fotogrammi e dissolvenza in uscita gli ultimi 25 fotogrammi di un video da 1000 fotogrammi:

dissolvenza=in:0:25, dissolvenza=fuori:975:25

· Rendi gialli i primi 5 fotogrammi, quindi dissolvenza in entrata dal fotogramma 5-24:

dissolvenza=in:5:20:colore=giallo

· Dissolvenza in alfa sui primi 25 fotogrammi del video:

dissolvenza=in:0:25:alpha=1

· Rendi neri i primi 5.5 secondi, quindi sfuma in 0.5 secondi:

dissolvenza=t=in:st=5.5:d=0.5

fffilt
Applicare espressioni arbitrarie a campioni nel dominio della frequenza

dc_Y
Regolare il valore dc (guadagno) del piano luma dell'immagine. Il filtro accetta an
valore intero nell'intervallo da 0 a 1000. Il valore predefinito è impostato su 0.

dc_U
Regolare il valore dc (guadagno) del primo piano di crominanza dell'immagine. Il filtro accetta an
valore intero nell'intervallo da 0 a 1000. Il valore predefinito è impostato su 0.

cc_V
Regolare il valore dc (guadagno) del 2° piano di crominanza dell'immagine. Il filtro accetta an
valore intero nell'intervallo da 0 a 1000. Il valore predefinito è impostato su 0.

pesante
Impostare l'espressione del peso nel dominio della frequenza per il piano luma.

peso_U
Imposta l'espressione del peso del dominio della frequenza per il primo piano crominanza.

peso_V
Imposta l'espressione del peso del dominio della frequenza per il 2° piano cromatico.

Il filtro accetta le seguenti variabili:

X
Y Le coordinate del campione corrente.

W
H La larghezza e l'altezza dell'immagine.

Esempi

· Alto passaggio:

fftfilt=dc_Y=128:weight_Y='squish(1-(Y+X)/100)'

· Passa basso:

fftfilt=dc_Y=0:weight_Y='squish((Y+X)/100-1)'

· Affilare:

fftfilt=dc_Y=0:weight_Y='1+squish(1-(Y+X)/100)'

campo
Estrai un singolo campo da un'immagine interlacciata usando l'aritmetica del passo per evitare sprechi
Tempo della CPU. I frame di output sono contrassegnati come non interlacciati.

Il filtro accetta le seguenti opzioni:

Digitare
Specificare se estrarre il campo in alto (se il valore è 0 o "top") o il campo in basso
(se il valore è 1 o "bottom").

partita sul campo
Filtro di corrispondenza del campo per il telecine inverso. Ha lo scopo di ricostruire il progressista
frame da un flusso telecine. Il filtro non rilascia fotogrammi duplicati, quindi per ottenere
un "fieldmatch" completo di telecine inverso deve essere seguito da un filtro di decimazione come
as decimare nel filtergraph.

La separazione del campo di corrispondenza e la decimazione è notevolmente motivata dal
possibilità di inserire un filtro deinterlacciante fallback tra i due. Se la fonte
ha un contenuto misto telecine e reale interlacciato, "fieldmatch" non sarà in grado di corrispondere
campi per le parti interlacciate. Ma questi fotogrammi pettinati rimanenti saranno contrassegnati come
interlacciato, e quindi può essere deinterlacciato da un filtro successivo come Yadif prima
decimazione.

Oltre alle varie opzioni di configurazione, "fieldmatch" può richiedere un secondo opzionale
stream, attivato attraverso il psrc opzione. Se abilitato, la ricostruzione dei frame sarà
in base ai campi e ai frame di questo secondo flusso. Ciò consente al primo input di essere
pre-elaborato in modo da aiutare i vari algoritmi del filtro, mantenendo il
output senza perdite (supponendo che i campi siano abbinati correttamente). In genere, un informatore sul campo
denoiser o le regolazioni di luminosità/contrasto possono aiutare.

Si noti che questo filtro utilizza gli stessi algoritmi di TIVTC/TFM (progetto AviSynth) e
VIVTC/VFM (progetto VaporSynth). Il secondo è un clone leggero di TFM da cui "fieldmatch"
è basato su. Sebbene la semantica e l'utilizzo siano molto simili, alcuni nomi di comportamenti e opzioni
può differire.

I decimare il filtro attualmente funziona solo per l'input di frame rate costante. Se il tuo input ha
contenuti misti telecine (30 fps) e progressivi con un framerate inferiore come 24 fps utilizzano il
seguente filterchain per produrre il flusso cfr necessario:
"dejudder,fps=30000/1001,fieldmatch,decimate".

Il filtro accetta le seguenti opzioni:

minimo
Specificare l'ordine dei campi presunto del flusso di input. I valori disponibili sono:

auto
Rileva automaticamente la parità (usa il valore di parità interno di FFmpeg).

BFF Assumi prima il campo in basso.

tff Assumi prima il campo in alto.

Nota che a volte si consiglia di non fidarsi della parità annunciata dallo stream.

Il valore predefinito è auto.

modo
Imposta la modalità di corrispondenza o la strategia da utilizzare. pc la modalità è la più sicura nel senso che
non rischierà di creare scatti a causa di fotogrammi duplicati quando possibile, ma se ci sono
modifiche sbagliate o campi mescolati finirà per produrre fotogrammi pettinati quando una buona corrispondenza
potrebbe effettivamente esistere. D'altro canto, pcn_ub la modalità è la più rischiosa in termini di
creando scatti, ma troverà quasi sempre una buona cornice se ce n'è una. Il
gli altri valori sono tutti da qualche parte nel mezzo pc ed pcn_ub in termini di rischio a scatti
e la creazione di fotogrammi duplicati rispetto alla ricerca di buone corrispondenze in sezioni con modifiche errate,
campi orfani, campi misti, ecc.

Maggiori dettagli su p/c/n/u/b sono disponibili in p/c/n/c/b significato .

I valori disponibili sono:

pc Corrispondenza a 2 vie (p/c)

pc_n
Corrispondenza a 2 vie e provando la 3a corrispondenza se ancora pettinata (p/c + n)

pc_u
Corrispondenza a 2 vie e provando la 3a corrispondenza (stesso ordine) se ancora pettinata (p/c + u)

pc_n_ub
Corrispondenza a 2 vie, provando la 3a corrispondenza se ancora pettinata e provando la 4a/5a corrispondenza se
ancora pettinato (p/c + n + u/b)

pz Abbinamento a 3 vie (p/c/n)

pcn_ub
Corrispondenza a 3 vie e provando la 4a/5a corrispondenza se tutte e 3 le corrispondenze originali lo sono
rilevato come pettinato (p/c/n + u/b)

Le parentesi alla fine indicano le corrispondenze che verrebbero utilizzate per quella modalità
supponendo minimo=tff (E campo on auto or top).

In termini di velocità pc la modalità è di gran lunga la più veloce e pcn_ub è il più lento.

Il valore predefinito è pc_n.

psrc
Contrassegna il flusso di input principale come input pre-elaborato e abilita l'input secondario
stream come la fonte pulita da cui prelevare i campi. Vedere l'introduzione del filtro per
più dettagli. È simile a clip2 caratteristica di VFM/TFM.

Il valore predefinito è 0 (disabilitato).

campo
Imposta il campo da cui eseguire la corrispondenza. Si consiglia di impostarlo sullo stesso valore di minimo
a meno che non si verifichino errori di corrispondenza con tale impostazione. In determinate circostanze
cambiare il campo utilizzato per la corrispondenza può avere un grande impatto sulla corrispondenza
prestazione. I valori disponibili sono:

auto
Automatico (stesso valore di minimo).

fondo
Partita dal campo in basso.

top Partita dal campo più alto.

Il valore predefinito è auto.

mcroma
Imposta se includere o meno la crominanza durante i confronti delle partite. Nella maggior parte dei casi è
si consiglia di lasciarlo abilitato. Dovresti impostarlo su 0 solo se la tua clip ha
brutti problemi di crominanza come forti arcobaleno o altri artefatti. Impostandolo su 0
potrebbe anche essere usato per accelerare le cose a costo di una certa precisione.

Il valore predefinito è 1.

y0
y1 Questi definiscono una banda di esclusione che esclude le linee tra y0 ed y1 dall'essere
incluso nella decisione di corrispondenza del campo. È possibile utilizzare una banda di esclusione per ignorare
sottotitoli, un logo o altri elementi che potrebbero interferire con la corrispondenza. y0 imposta il
inizio della linea di scansione e y1 imposta la linea di fine; tutte le righe in mezzo y0 ed y1
(Compresi y0 ed y1) verrà ignorato. Collocamento y0 ed y1 allo stesso valore sarà
disabilitare la funzione. y0 ed y1 il valore predefinito è 0.

sctresh
Imposta la soglia di rilevamento del cambio di scena come percentuale del cambiamento massimo sulla luminanza
aereo. I buoni valori sono nell'intervallo "[8.0, 14.0]". Il rilevamento del cambio di scena è solo
rilevante nel caso combmatch=sc. La gamma per sctresh è "[0.0, 100.0]".

Il valore predefinito è 12.0.

combmatch
Quando combattimento non è nessuna, "fieldmatch" terrà conto dei punteggi pettinati di
partite quando si decide quale partita usare come partita finale. I valori disponibili sono:

nessuna
Nessuna corrispondenza finale basata su punteggi pettinati.

sc I punteggi combinati vengono utilizzati solo quando viene rilevato un cambio di scena.

pieno
Usa sempre i punteggi pettinati.

L'impostazione predefinita è sc.

combdbg
Forza "fieldmatch" per calcolare le metriche combinate per determinate corrispondenze e stamparle.
Questa impostazione è nota come micout nel vocabolario TFM/VFM. I valori disponibili sono:

nessuna
Nessun calcolo forzato.

pz Forza calcoli p/c/n.

pcnob
Forza calcoli p/c/n/u/b.

Il valore predefinito è nessuna.

ctresh
Questa è la soglia di pettinatura dell'area utilizzata per il rilevamento del fotogramma pettinato. Questo essenzialmente
controlla quanto deve essere "forte" o "visibile" la pettinatura per essere rilevata. Valori maggiori significano
la pettinatura deve essere più visibile e valori più piccoli significano che la pettinatura può essere meno visibile o
forte e ancora da rilevare. Le impostazioni valide sono da "-1" (ogni pixel sarà
rilevato come pettinato) a 255 (nessun pixel verrà rilevato come pettinato). Questo è fondamentalmente un
valore della differenza di pixel. Un buon intervallo è "[8, 12]".

Il valore predefinito è 9.

chroma
Imposta se la crominanza viene considerata o meno nella decisione del fotogramma pettinato. Disabilita solo
questo se la tua fonte ha problemi di crominanza (arcobaleno, ecc.) che stanno causando problemi
per il rilevamento del fotogramma pettinato con chroma abilitato. In realtà, usando chroma=0 is
di solito più affidabile, tranne nel caso in cui vi sia crominanza solo nella
fonte.

Il valore predefinito è 0.

Blockx
blocchi
Imposta rispettivamente le dimensioni dell'asse x e dell'asse y della finestra utilizzata durante il frame pettinato
rilevamento. Questo ha a che fare con la dimensione dell'area in cui pettinare i pixel sono
necessario per essere rilevato come pettinato affinché un telaio venga dichiarato pettinato. Vedi il pettinare
descrizione del parametro per maggiori informazioni. I valori possibili sono qualsiasi numero che sia una potenza
di 2 a partire da 4 e fino a 512.

Il valore predefinito è 16.

pettinare
Il numero di pixel pettinati all'interno di uno qualsiasi dei blocchi by Blockx blocchi di dimensioni sul
frame affinché il frame venga rilevato come pettinato. Mentre ctresh controlla come "visibile" il
la pettinatura deve essere, questa impostazione controlla "quanta" la pettinatura deve esserci in qualsiasi
area localizzata (una finestra definita dal Blockx ed blocchi impostazioni) sul telaio.
Il valore minimo è 0 e il massimo è "blocky x blockx" (a quel punto nessun frame lo farà
mai rilevato come pettinato). Questa impostazione è nota come MI nel vocabolario TFM/VFM.

Il valore predefinito è 80.

p/c/n/c/b significato

p/c/n

Assumiamo il seguente flusso telecine:

Campi superiori: 1 2 2 3 4
Campi inferiori: 1 2 3 4 4

I numeri corrispondono al frame progressivo a cui si riferiscono i campi. Ecco i primi due
i frame sono progressivi, il 3° e il 4° sono pettinati e così via.

Quando "fieldmatch" è configurato per eseguire una corrispondenza dal basso (campo=fondo) questo è come
questo flusso di input viene trasformato:

Flusso di ingresso:
T1 2 2 3 4
B 1 2 3 4 4 <-- riferimento corrispondente

Corrispondenze: ccnnc

Flusso di uscita:
T1 2 3 4 4
SI 1 2 3 4 4

Come risultato della corrispondenza dei campi, possiamo vedere che alcuni frame vengono duplicati. per esibirsi
un telecine inverso completo, è necessario fare affidamento su un filtro di decimazione dopo questa operazione.
Vedi ad esempio il decimare filtro.

La stessa operazione ora corrispondente dai campi in alto (campo=top) Somiglia a questo:

Flusso di ingresso:
T 1 2 2 3 4 <-- riferimento corrispondente
SI 1 2 3 4 4

Corrispondenze: ccppc

Flusso di uscita:
T1 2 2 3 4
SI 1 2 2 3 4

In questi esempi, possiamo vedere cosa p, c ed n significare; sostanzialmente si riferiscono al telaio e
campo di parità opposta:

*<p corrisponde al campo della parità opposta nel frame precedente>
*<c corrisponde al campo della parità opposta nel frame corrente>
*<n corrisponde al campo della parità opposta nel frame successivo>

tu/b

I u ed b gli abbinamenti sono un po' particolari nel senso che combaciano dall'opposto
bandiera di parità. Nei seguenti esempi, assumiamo che stiamo attualmente abbinando il 2nd
cornice (sopra:2, sotto:2). A seconda della partita, sopra e sotto ciascuna viene posizionata una "x"
campi abbinati.

Con corrispondenza inferiore (campo=fondo):

Corrispondenza: cpnbu

xxxxx
Superiore 1 2 2 1 2 2 1 2 2 1 2 2 1 2 2
In basso 1 2 3 1 2 3 1 2 3 1 2 3 1 2 3
xxxxx

Frame di uscita:
2 1 2 2 2
2 2 2 1 3

Con corrispondenza superiore (campo=top):

Corrispondenza: cpnbu

xxxxx
Superiore 1 2 2 1 2 2 1 2 2 1 2 2 1 2 2
In basso 1 2 3 1 2 3 1 2 3 1 2 3 1 2 3
xxxxx

Frame di uscita:
2 2 2 1 2
2 1 3 2 2

Esempi

IVTC semplice di un primo flusso telecine del campo superiore:

fieldmatch=ordine=tff:combmatch=nessuno, decimare

IVTC avanzato, con fallback attivo Yadif per telai ancora pettinati:

fieldmatch=order=tff:combmatch=full, yadif=deint=interlacciato, decimate

ordine dei campi
Trasforma l'ordine dei campi del video in ingresso.

Accetta i seguenti parametri:

minimo
L'ordine dei campi di output. I valori validi sono tff per il campo superiore prima o BFF per il fondo
campo prima.

Il valore predefinito è tff.

La trasformazione viene eseguita spostando il contenuto dell'immagine verso l'alto o verso il basso di una riga e
riempire la riga rimanente con il contenuto dell'immagine appropriato. Questo metodo è coerente
con la maggior parte dei convertitori di ordini di campo broadcast.

Se il video in ingresso non è contrassegnato come interlacciato o è già contrassegnato come
dell'ordine dei campi di output richiesto, questo filtro non altera il video in ingresso.

È molto utile quando si converte in o da materiale PAL DV, che è prima il campo inferiore.

Per esempio:

ffmpeg -i in.vob -vf "fieldorder=bff" out.dv

fifo
Archivia le immagini di input e inviale quando vengono richieste.

È principalmente utile quando viene inserito automaticamente dal framework libavfilter.

Non richiede parametri.

trova_rect
Trova un oggetto rettangolare

Accetta le seguenti opzioni:

oggetto
Il percorso del file dell'immagine dell'oggetto deve essere in grigio8.

soglia
Soglia di rilevamento, il valore predefinito è 0.5.

mipmap
Numero di mipmap, il valore predefinito è 3.

xmin, ymin, massimo, ymax
Specifica il rettangolo in cui eseguire la ricerca.

Esempi

· Generare una tavolozza rappresentativa di un determinato video utilizzando ffmpeg:

ffmpeg -i file.ts -vf find_rect=newref.pgm,cover_rect=cover.jpg:mode=cover new.mkv

cover_rect
Copri un oggetto rettangolare

Accetta le seguenti opzioni:

coprire
Il percorso del file dell'immagine di copertina opzionale deve essere in yuv420.

modo
Imposta la modalità di copertura.

Accetta i seguenti valori:

coprire
coprilo con l'immagine fornita

sfocatura
coprirlo interpolando i pixel circostanti

Il valore predefinito è sfocatura.

Esempi

· Generare una tavolozza rappresentativa di un determinato video utilizzando ffmpeg:

ffmpeg -i file.ts -vf find_rect=newref.pgm,cover_rect=cover.jpg:mode=cover new.mkv

formato
Converti il ​​video in ingresso in uno dei formati pixel specificati. Libavfilter proverà a farlo
scegline uno adatto come input per il filtro successivo.

Accetta i seguenti parametri:

pix_fmts
Un elenco separato da '|' di nomi di formati pixel, come "pix_fmts=yuv420p|monow|rgb24".

Esempi

· Convertire il video in ingresso nel yuv420p formato

formato=pix_fmts=yuv420p

Converti il ​​video di input in uno qualsiasi dei formati nell'elenco

formato=pix_fmts=yuv420p|yuv444p|yuv410p

fps
Converti il ​​video alla frequenza fotogrammi costante specificata duplicando o eliminando i fotogrammi come
necessario.

Accetta i seguenti parametri:

fps Il frame rate di output desiderato. Il valore predefinito è 25.

tondo
Metodo di arrotondamento.

I valori possibili sono:

zero
zero arrotondato verso 0

inf arrotondato da 0

giù
round verso -infinito

up rotondi verso +infinito

vicino
arrotonda al più vicino

L'impostazione predefinita è "vicino".

Ora di inizio
Supponiamo che il primo PTS dovrebbe essere il valore dato, in secondi. Questo permette
riempimento/ritaglio all'inizio del flusso. Per impostazione predefinita, non viene fatta alcuna supposizione sul
PTS previsto per il primo fotogramma, quindi non viene eseguita alcuna imbottitura o ritaglio. Ad esempio, questo
potrebbe essere impostato su 0 per riempire l'inizio con duplicati del primo fotogramma se un video
lo streaming inizia dopo lo streaming audio o per tagliare qualsiasi fotogramma con un PTS negativo.

In alternativa, le opzioni possono essere specificate come stringa piatta: fps[:tondo].

Vedi anche il sett filtro.

Esempi

· Un utilizzo tipico per impostare gli fps a 25:

fps=fps=25

· Imposta i fps su 24, utilizzando l'abbreviazione e il metodo di arrotondamento per arrotondare al più vicino:

fps=fps=film:rotondo=vicino

pacchetto di cornici
Raggruppa due flussi video diversi in un video stereoscopico, impostando i metadati corretti su
codec supportati. Le due viste dovrebbero avere le stesse dimensioni, framerate ed elaborazione
si fermerà al termine del video più breve. Si prega di notare che è possibile regolare comodamente la visualizzazione
proprietà con il scala ed fps filtri.

Accetta i seguenti parametri:

formato
Il formato di imballaggio desiderato. I valori supportati sono:

SBS Le viste sono una accanto all'altra (impostazione predefinita).

linguetta I panorami sono uno sopra l'altro.

Linee
Le viste sono imballate per linea.

colonne
Le visualizzazioni sono raggruppate per colonna.

frameseq
Le viste sono temporalmente intercalate.

Qualche esempio:

# Converti le visualizzazioni sinistra e destra in un video sequenziale di fotogrammi
ffmpeg -i SINISTRA -i DESTRA -filter_complex framepack=frameseq OUTPUT

# Converti le visualizzazioni in un video affiancato con la stessa risoluzione di output dell'input
ffmpeg -i LEFT -i RIGHT -filter_complex [0:v]scale=w=iw/2[sinistra],[1:v]scale=w=iw/2[destra],[sinistra][destra]framepack=sbs PRODUZIONE

framerate
Modificare la frequenza dei fotogrammi interpolando nuovi fotogrammi di output video dai fotogrammi di origine.

Questo filtro non è progettato per funzionare correttamente con supporti interlacciati. Se lo desideri
cambia la frequenza dei fotogrammi dei media interlacciati, quindi devi deinterlacciare prima di questo
filtrare e interlacciare nuovamente dopo questo filtro.

Segue una descrizione delle opzioni accettate.

fps Specificare i fotogrammi di output al secondo. Questa opzione può anche essere specificata come valore
da solo. Il valore predefinito è 50.

interp_start
Specificare l'inizio di un intervallo in cui il fotogramma di output verrà creato come lineare
interpolazione di due frame. L'intervallo è [0-255], il valore predefinito è 15.

interp_end
Specificare la fine di un intervallo in cui il fotogramma di output verrà creato come lineare
interpolazione di due frame. L'intervallo è [0-255], il valore predefinito è 240.

scena
Specificare il livello al quale viene rilevato un cambio di scena come un valore compreso tra 0 e 100 a
indicare una nuova scena; un valore basso riflette una bassa probabilità per il frame corrente di
introdurre una nuova scena, mentre un valore più alto indica che è più probabile che il fotogramma corrente
Sii uno. Il valore predefinito è 7.

bandiere
Specificare i flag che influenzano il processo di filtro.

Valore disponibile per bandiere è:

scena_change_detect, ma
Abilita il rilevamento del cambio di scena utilizzando il valore dell'opzione scena. Questa bandiera è
abilitato per impostazione predefinita.

passo di cornice
Seleziona un fotogramma ogni N-esimo fotogramma.

Questo filtro accetta la seguente opzione:

passo
Seleziona frame dopo ogni frame "step". I valori consentiti sono numeri interi positivi maggiori
di 0. Il valore predefinito è 1.

frei0r
Applicare un effetto frei0r al video in ingresso.

Per abilitare la compilazione di questo filtro, è necessario installare l'intestazione frei0r e
configurare FFmpeg con "--enable-frei0r".

Accetta i seguenti parametri:

nome_filtro
Il nome dell'effetto frei0r da caricare. Se la variabile d'ambiente FREI0R_PERCORSO is
definito, l'effetto frei0r viene cercato in ciascuna delle directory specificate dal
elenco separato da due punti in PERCORSO_FREIOR. Altrimenti, i percorsi frei0r standard sono
cercato, in questo ordine: HOME/.frei0r-1/lib/, /usr/local/lib/frei0r-1/,
/usr/lib/frei0r-1/.

filter_params
Un elenco di parametri separati da '|' da passare all'effetto frei0r.

Un parametro di effetto frei0r può essere un booleano (il suo valore è "y" o "n"), un double, a
colore (specificato come R/G/B, Dove R, Ge B sono numeri in virgola mobile compresi tra 0.0 e
1.0, compreso) o da una descrizione del colore specificata nella sezione "Colore" nel file ffmpeg-
utils manual), una posizione (specificata come X/Y, Dove X ed Y sono numeri in virgola mobile)
e/o una stringa.

Il numero ei tipi di parametri dipendono dall'effetto caricato. Se un parametro di effetto è
non specificato, viene impostato il valore predefinito.

Esempi

· Applicare l'effetto distort0r, impostando i primi due doppi parametri:

frei0r=filter_name=distort0r:filter_params=0.5|0.01

· Applicare l'effetto distanza colore, prendendo un colore come primo parametro:

frei0r=colordistanza:0.2/0.3/0.4
frei0r=colordistance:viola
frei0r=distanza colore:0x112233

· Applicare l'effetto prospettiva, specificando le posizioni dell'immagine in alto a sinistra e in alto a destra:

frei0r=perspective:0.2/0.2|0.8/0.2

Per ulteriori informazioni, vederehttp://frei0r.dyne.org>

spp
Applicare una post-elaborazione rapida e semplice. È una versione più veloce di spp.

Divide (I)DCT in passaggi orizzontali/verticali. A differenza della semplice post-elaborazione
filtro, uno di questi viene eseguito una volta per blocco, non per pixel. Questo permette molto
velocità maggiore.

Il filtro accetta le seguenti opzioni:

qualità
Imposta la qualità. Questa opzione definisce il numero di livelli per la media. Accetta un
numero intero compreso tra 4-5. Il valore predefinito è 4.

qp Forza un parametro di quantizzazione costante. Accetta un numero intero nell'intervallo 0-63. Altrimenti
impostato, il filtro utilizzerà il QP dal flusso video (se disponibile).

forza
Imposta la potenza del filtro. Accetta un numero intero compreso tra -15 e 32. Valori più bassi significano di più
dettagli ma anche più artefatti, mentre valori più alti rendono l'immagine più fluida ma anche
più sfocato. Il valore predefinito è 0 X PSNR ottimale.

usa_bframe_qp
Abilita l'uso del QP dai B-Frame se impostato su 1. L'uso di questa opzione potrebbe causare
sfarfallio poiché i B-Frame hanno spesso QP più grandi. Il valore predefinito è 0 (non abilitato).

geq
Il filtro accetta le seguenti opzioni:

lum_expr, lum
Imposta l'espressione della luminanza.

cb_espr, cb
Imposta l'espressione del blu di crominanza.

cr_espressione, cr
Imposta l'espressione del rosso di crominanza.

alfa_espr, a
Imposta l'espressione alfa.

espressione_rossa, r
Imposta l'espressione rossa.

verde_espr, g
Imposta l'espressione verde.

espressione_blu, b
Imposta l'espressione blu.

Lo spazio colore viene selezionato in base alle opzioni specificate. Se uno dei lum_espr,
cb_espr, o cr_espr opzioni è specificato, il filtro selezionerà automaticamente un YCbCr
spazio colore. Se uno dei red_espr, espressione_verde, o blu_espr opzioni è specificato, lo farà
selezionare uno spazio colore RGB.

Se una delle espressioni di crominanza non è definita, ricade sull'altra. se no
l'espressione alfa è specificata, verrà valutata con un valore opaco. Se nessuno di crominanza
le espressioni sono specificate, valuteranno l'espressione di luminanza.

Le espressioni possono utilizzare le seguenti variabili e funzioni:

N Il numero sequenziale del frame filtrato, a partire da 0.

X
Y Le coordinate del campione corrente.

W
H La larghezza e l'altezza dell'immagine.

SW
SH Scala di larghezza e altezza in base al piano attualmente filtrato. È il rapporto
tra il numero di pixel del piano luma corrispondente e quelli del piano corrente. Per esempio
per YUV4:2:0 i valori sono "1,1" per il piano luma e "0.5,0.5" per i piani crominanza.

T Tempo del frame corrente, espresso in secondi.

p(x, y)
Restituisce il valore del pixel nella posizione (x,y) del piano attuale.

lum(x, y)
Restituisce il valore del pixel nella posizione (x,y) del piano di luminanza.

cb(x, y)
Restituisce il valore del pixel nella posizione (x,y) del piano di crominanza blu-differenza.
Restituisci 0 se non esiste un tale piano.

cr(x, y)
Restituisce il valore del pixel nella posizione (x,y) del piano di crominanza rosso-differenza.
Restituisci 0 se non esiste un tale piano.

r(x, y)
g(x, y)
b(x, y)
Restituisce il valore del pixel nella posizione (x,y) della componente rosso/verde/blu.
Restituisce 0 se non esiste tale componente.

alfa(x, y)
Restituisce il valore del pixel nella posizione (x,y) del piano alfa. Restituisci 0 se c'è
non è un aereo del genere.

Per le funzioni, se x ed y sono al di fuori dell'area, il valore verrà automaticamente ritagliato su
il bordo più vicino.

Esempi

· Capovolgi l'immagine orizzontalmente:

geq=p(WX\,Y)

· Genera un'onda sinusoidale bidimensionale, con angolo "PI/3" e lunghezza d'onda di 100 pixel:

geq=128 + 100*sin(2*(PI/100)*(cos(PI/3)*(X-50*T) + sin(PI/3)*Y)):128:128

· Genera una luce mobile enigmatica di fantasia:

nullsrc=s=256x256,geq=casuale(1)/hypot(X-cos(N*0.07)*W/2-W/2\,Y-sin(N*0.09)*H/2-H/2)^2*1000000*sin(N*0.02):128:128

· Genera un rapido effetto rilievo:

formato=grigio,geq=lum_expr='(p(X,Y)+(256-p(X-4,Y-4)))/2'

· Modifica i componenti RGB in base alla posizione dei pixel:

geq=r='X/W*r(X,Y)':g='(1-X/W)*g(X,Y)':b='(HY)/H*b(X,Y )'

· Creare un gradiente radiale della stessa dimensione dell'input (vedere anche il vignette
filtro):

geq=lum=255*gauss((X/W-0.5)*3)*gauss((Y/H-0.5)*3)/gauss(0) /gauss(0), formato=grigio

· Crea un gradiente lineare da usare come maschera per un altro filtro, quindi componi con
copertura. In questo esempio il video diventerà gradualmente più sfocato dall'alto verso
la parte inferiore dell'asse y come definito dal gradiente lineare:

ffmpeg -i input.mp4 -filter_complex "geq=lum=255*(Y/H),format=grigio[grad];[0:v]boxblur=4[sfocatura];[sfocatura][grad]alphamerge[alpha] ;[0:v][alpha]overlay" output.mp4

laureato
Correggi gli artefatti di banding che a volte vengono introdotti in regioni quasi piatte da
troncamento a una profondità di colore di 8 bit. Interpola i gradienti che dovrebbero andare dove le bande
sono, e tremolarli.

È progettato solo per la riproduzione. Non utilizzarlo prima della compressione con perdita, perché
la compressione tende a perdere il dither e riportare le bande.

Accetta i seguenti parametri:

forza
L'importo massimo di cui il filtro cambierà un pixel. Questo è anche il
soglia per il rilevamento di regioni quasi piatte. I valori accettabili vanno da 51 a 64;
il valore predefinito è 1.2. I valori fuori intervallo verranno ritagliati nell'intervallo valido.

raggio
Il quartiere a cui adattare il gradiente. Un raggio più ampio rende i gradienti più uniformi,
ma impedisce anche al filtro di modificare i pixel vicino alle regioni dettagliate.
I valori accettabili sono 8-32; il valore predefinito è 16. I valori fuori intervallo saranno
ritagliato nell'intervallo valido.

In alternativa, le opzioni possono essere specificate come stringa piatta: forza[:raggio]

Esempi

· Applicare il filtro con forza 3.5 e raggio 8:

gradfun=3.5:8

· Specificare il raggio, omettendo la forza (che tornerà al valore predefinito):

gradfun=raggio=8

Haldclut
Applicare un Hald CLUT a un flusso video.

Il primo input è il flusso video da elaborare e il secondo è Hald CLUT. il Hald
L'ingresso CLUT può essere una semplice immagine o un flusso video completo.

Il filtro accetta le seguenti opzioni:

più breve
Forza la terminazione quando termina l'input più breve. Il valore predefinito è 0.

ripeti l'ultima
Continua ad applicare l'ultimo CLUT dopo la fine dello stream. Un valore di 0 disabilita il
filtro dopo che è stato raggiunto l'ultimo fotogramma del CLUT. Il valore predefinito è 1.

"haldclut" ha anche le stesse opzioni di interpolazione di lut3d (entrambi i filtri condividono lo stesso
interni).

Maggiori informazioni su Hald CLUT possono essere trovate sul sito web di Eskil Steenberg (Hald CLUT
autore) ahttp://www.quelsolaar.com/technology/clut.html>.

Workflow Esempi

Hald CLUT streaming video

Genera un flusso di identità Hald CLUT alterato con vari effetti:

ffmpeg -f lavfi -i B =8 -vf "hue=H=2*PI*t:s=sin(2*PI*t)+1, curve=cross_process" -t 10 -c:v ffv1 clut.nut

Nota: assicurati di utilizzare un codec senza perdita di dati.

Quindi usalo con "haldclut" per applicarlo su un flusso casuale:

ffmpeg -f lavfi -i mandelbrot -i clut.nut -filter_complex '[0][1] haldclut' -t 20 mandelclut.mkv

L'hald CLUT verrà applicato ai primi 10 secondi (durata di dado.clut), poi il
l'ultima immagine di quel flusso CLUT verrà applicata ai fotogrammi rimanenti del
flusso "mandelbrot".

Hald CLUT con anteprima

Un Hald CLUT dovrebbe essere un'immagine quadrata di "Level*Level*Level" di
Pixel "Livello*Livello*Livello". Per un dato Hald CLUT, FFmpeg selezionerà il più grande possibile
quadrato che inizia in alto a sinistra dell'immagine. I pixel di riempimento rimanenti (in basso o
a destra) verrà ignorato. Quest'area può essere utilizzata per aggiungere un'anteprima di Hald CLUT.

In genere, il seguente Hald CLUT generato sarà supportato dal filtro "haldclut":

ffmpeg -f lavfi -i B =8 -vf "
pad=iw+320 [imbottito_clut];
smptebars=s=320x256, divide [a][b];
[padded_clut][a] overlay=W-320:h, curve=color_negative [main];
[main][b] overlay=W-320" -frames:v 1 clut.png

Contiene l'originale e un'anteprima dell'effetto di CLUT: le barre di colore SMPTE sono
visualizzato in alto a destra e sotto le stesse barre di colore elaborate dai cambi di colore.

Quindi, l'effetto di questo Hald CLUT può essere visualizzato con:

ffplay input.mkv -vf "film=clut.png, [in] haldclut"

flip
Capovolgere orizzontalmente il video in ingresso.

Ad esempio, per capovolgere orizzontalmente il video in ingresso con ffmpeg:

ffmpeg -i in.avi -vf "hflip" out.avi

isteq
Questo filtro applica un'equalizzazione dell'istogramma del colore globale in base al fotogramma.

Può essere utilizzato per correggere video con un intervallo compresso di intensità di pixel. Il
filtro ridistribuisce le intensità dei pixel per equalizzare la loro distribuzione attraverso il
gamma di intensità. Può essere visto come un "filtro di contrasto a regolazione automatica". Questo
Il filtro è utile solo per correggere il video sorgente degradato o catturato male.

Il filtro accetta le seguenti opzioni:

forza
Determinare la quantità di equalizzazione da applicare. Quando la forza si riduce, il
la distribuzione delle intensità dei pixel si avvicina sempre di più a quella del frame di input.
Il valore deve essere un numero float nell'intervallo [0,1] e il valore predefinito è 0.200.

l'intensità
Imposta l'intensità massima che può generare e scala i valori di output
appropriatamente. La forza dovrebbe essere impostata come desiderato e quindi l'intensità può essere
limitato se necessario per evitare il dilavamento. Il valore deve essere un numero float nell'intervallo
[0,1] e il valore predefinito è 0.210.

antibanda
Imposta il livello di antibanding. Se abilitato il filtro varierà casualmente la luminanza di
pixel di output di una piccola quantità per evitare bande dell'istogramma. I valori possibili sono
"nessuno", "debole" o "forte". Il valore predefinito è "nessuno".

istogramma
Calcola e disegna un istogramma di distribuzione del colore per il video in ingresso.

L'istogramma calcolato è una rappresentazione della distribuzione dei componenti del colore in un
immagine.

Il filtro accetta le seguenti opzioni:

modo
Imposta la modalità istogramma.

Accetta i seguenti valori:

livelli
Istogramma standard che mostra la distribuzione dei componenti del colore in un'immagine.
Visualizza il grafico dei colori per ogni componente del colore. Mostra la distribuzione di Y, U, V,
Componenti A o R, G, B, a seconda del formato di input, nel frame corrente. Qui di seguito
ogni grafico è mostrato un misuratore di scala del componente di colore.

colore
Visualizza i valori di crominanza (posizione del colore U/V) in un grafico bidimensionale (che è
chiamato vettorscopio). Più luminoso è un pixel nel vettorscopio, più pixel di
il frame di input corrisponde a quel pixel (cioè, più pixel hanno questa crominanza
valore). Il componente V viene visualizzato sull'asse orizzontale (X), con il più a sinistra
lato essendo V = 0 e il lato più a destra essendo V = 255. Il componente U è
visualizzato sull'asse verticale (Y), con la parte superiore che rappresenta U = 0 e la parte inferiore
che rappresenta U = 255.

La posizione di un pixel bianco nel grafico corrisponde al valore di crominanza di a
pixel della clip in ingresso. Il grafico può quindi essere utilizzato per leggere la tonalità (colore
sapore) e la saturazione (la dominanza della tonalità nel colore). Come la tonalità di
un colore cambia, si muove intorno al quadrato. Al centro della piazza il
la saturazione è zero, il che significa che il pixel corrispondente non ha colore. Se la
viene aumentata la quantità di un colore specifico (lasciando invariati gli altri colori)
la saturazione aumenta e l'indicatore si sposta verso il bordo del quadrato.

color2
I valori di crominanza in vectorscope, simili a "colore" ma i valori di crominanza effettivi sono
visualizzato.

della forma d'onda
Grafico componente colore per riga/colonna. In modalità riga, il grafico a sinistra
rappresenta il valore del componente colore 0 e il lato destro rappresenta il valore = 255. In
modalità colonna, il lato superiore rappresenta il valore del componente colore = 0 e il lato inferiore
rappresenta il valore = 255.

Il valore predefinito è "livelli".

livello_altezza
Imposta l'altezza del livello in "livelli". Il valore predefinito è 200. L'intervallo consentito è [50, 2048].

scala_altezza
Imposta l'altezza della scala dei colori in "livelli". Il valore predefinito è 12. L'intervallo consentito è [0, 40].

passo
Imposta il passo per la modalità "forma d'onda". Valori più piccoli sono utili per scoprire quanti valori di
la stessa luminanza è distribuita sulle righe/colonne di input. Il valore predefinito è 10.
L'intervallo consentito è [1, 255].

modalità_forma d'onda
Imposta la modalità per "forma d'onda". Può essere "riga" o "colonna". L'impostazione predefinita è "riga".

specchio_della forma d'onda
Imposta la modalità di mirroring per "forma d'onda". 0 significa non speculare, 1 significa speculare. a specchio
modalità, i valori più alti saranno rappresentati sul lato sinistro per la modalità "riga" e in alto
per la modalità "colonna". Il valore predefinito è 0 (senza mirroring).

modalità display
Impostare la modalità di visualizzazione per "forma d'onda" e "livelli". Accetta i seguenti valori:

parata
Visualizza un grafico separato per i componenti del colore fianco a fianco nella forma d'onda "riga"
modalità o uno sotto l'altro in modalità forma d'onda "colonna" per istogramma "forma d'onda"
modalità. Per la modalità istogramma "livelli", i grafici per componente di colore sono posizionati sotto
l'un l'altro.

L'uso di questa modalità di visualizzazione in modalità istogramma "forma d'onda" semplifica l'individuazione dei colori
proietta nelle luci e nelle ombre di un'immagine, confrontando i contorni del
grafici superiore e inferiore di ciascuna forma d'onda. Poiché i bianchi, i grigi e i neri sono
caratterizzato da quantità esattamente uguali di rosso, verde e blu, aree neutre di
l'immagine dovrebbe visualizzare tre forme d'onda di larghezza/altezza approssimativamente uguali. Altrimenti,
la correzione è facile da eseguire regolando il livello delle tre forme d'onda.

copertura
Presenta informazioni identiche a quelle della "parata", tranne che i grafici
che rappresentano le componenti del colore sono sovrapposte direttamente l'una sull'altra.

Questa modalità di visualizzazione in modalità istogramma "forma d'onda" rende più facile individuare i relativi
differenze o somiglianze nelle aree sovrapposte dei componenti del colore che sono
dovrebbero essere identici, come bianchi neutri, grigi o neri.

L'impostazione predefinita è "parata".

livelli_modalità
Imposta la modalità per "livelli". Può essere "lineare" o "logaritmico". L'impostazione predefinita è "lineare".

componenti
Imposta quali componenti di colore visualizzare per la modalità "livelli". Il valore predefinito è 7.

Esempi

· Calcola e disegna l'istogramma:

ffplay -i input -vf istogramma

hddn3d
Questo è un filtro antirumore 3D di alta precisione/qualità. Ha lo scopo di ridurre il rumore dell'immagine,
producendo immagini uniformi e rendendo le immagini fisse davvero ferme. Dovrebbe migliorare
comprimibilità.

Accetta i seguenti parametri opzionali:

luma_spaziale
Un numero in virgola mobile non negativo che specifica l'intensità della luminanza spaziale. Esso
il valore predefinito è 4.0.

chroma_spaziale
Un numero in virgola mobile non negativo che specifica l'intensità della crominanza spaziale. Esso
il valore predefinito è 3.0*luma_spaziale/ 4.0.

luma_tmp
Un numero in virgola mobile che specifica l'intensità temporale della luminanza. Il valore predefinito è
6.0luma_spaziale/ 4.0.

chroma_tmp
Un numero in virgola mobile che specifica l'intensità temporale della crominanza. Il valore predefinito è
luma_tmp*chroma_spaziale/luma_spaziale.

hqx
Applica un filtro di ingrandimento di alta qualità progettato per la pixel art. Questo filtro era
originariamente creato da Maxim Stepin.

Accetta la seguente opzione:

n Imposta la dimensione della scala: 2 per "hq2x", 3 per "hq3x" e 4 per "hq4x". Il valore predefinito è 3.

hstack
Impila i video di input orizzontalmente.

Tutti i flussi devono essere dello stesso formato pixel e della stessa altezza.

Nota che questo filtro è più veloce dell'uso copertura ed sentiero filtro per creare lo stesso output.

Il filtro accetta la seguente opzione:

nb_input
Imposta il numero di flussi di input. Il valore predefinito è 2.

colore
Modificare la tonalità e/o la saturazione dell'input.

Accetta i seguenti parametri:

h Specificare l'angolo di tonalità come numero di gradi. Accetta un'espressione e di default
a "0".

s Specificare la saturazione nell'intervallo [-10,10]. Accetta un'espressione e il valore predefinito è
"1".

H Specificare l'angolo di tonalità come numero di radianti. Accetta un'espressione e le impostazioni predefinite
a "0".

b Specificare la luminosità nell'intervallo [-10,10]. Accetta un'espressione e il valore predefinito è
"0".

h ed H si escludono a vicenda e non possono essere specificati contemporaneamente.

I b, h, H ed s i valori delle opzioni sono espressioni contenenti le seguenti costanti:

n conteggio frame del frame in ingresso a partire da 0

pts timestamp di presentazione del frame di input espresso in unità di base dei tempi

r frame rate del video in ingresso, NAN se il frame rate in ingresso è sconosciuto

t timestamp espresso in secondi, NAN se il timestamp di input è sconosciuto

tb base dei tempi del video in ingresso

Esempi

· Imposta la tonalità su 90 gradi e la saturazione su 1.0:

tonalità=h=90:s=1

· Stesso comando ma esprimendo la tonalità in radianti:

tonalità=H=PI/2:s=1

· Ruota la tonalità e fai oscillare la saturazione tra 0 e 2 per un periodo di 1 secondo:

hue="H=2*PI*t: s=sin(2*PI*t)+1"

· Applicare un effetto di dissolvenza in apertura di saturazione di 3 secondi a partire da 0:

tonalità="s=min(t/3\,1)"

L'espressione generale di dissolvenza in entrata può essere scritta come:

hue="s=min(0\, max((t-START)/DURATION\, 1))"

· Applicare un effetto di dissolvenza in chiusura di saturazione di 3 secondi a partire da 5 secondi:

hue="s=max(0\, min(1\, (8-t)/3))"

L'espressione generale di dissolvenza in chiusura può essere scritta come:

hue="s=max(0\, min(1\, (START+DURATION-t)/DURATION))"

Comandi

Questo filtro supporta i seguenti comandi:

b
s
h
H Modificare la tonalità e/o la saturazione e/o la luminosità del video in ingresso. Il
Il comando accetta la stessa sintassi dell'opzione corrispondente.

Se l'espressione specificata non è valida, viene mantenuta al suo valore corrente.

idea
Rileva il tipo di interlacciamento video.

Questo filtro cerca di rilevare se i frame di input sono interlacciato, progressivo, superiore o inferiore
campo prima. Cercherà anche di rilevare i campi che si ripetono tra frame adiacenti
(segno di telecinesi).

Il rilevamento di un singolo frame considera solo i frame immediatamente adiacenti durante la classificazione di ciascuno
portafoto. Il rilevamento di più frame incorpora la cronologia di classificazione del precedente
cornici.

Il filtro registrerà questi valori di metadati:

frame.corrente_singolo
Tipo rilevato di frame corrente utilizzando il rilevamento di frame singolo. Uno di: ``tff'' (in alto
prima il campo), ``bff'' (prima il campo in basso), ``progressivo'' o ``indeterminato''

singolo.tff
Numero cumulativo di fotogrammi rilevati prima come campo superiore utilizzando il rilevamento di fotogrammi singoli.

multiplo.tff
Numero cumulativo di fotogrammi rilevati prima come campo superiore utilizzando più fotogrammi
rilevamento.

singolo.bff
Numero cumulativo di frame rilevati prima come campo inferiore utilizzando frame singolo
rilevamento.

più.frame_corrente
Rilevato tipo di frame corrente utilizzando il rilevamento di più frame. Uno di: ``tff'' (in alto
prima il campo), ``bff'' (prima il campo in basso), ``progressivo'' o ``indeterminato''

multiplo.bff
Numero cumulativo di fotogrammi rilevati prima come campo inferiore utilizzando più fotogrammi
rilevamento.

singolo.progressivo
Numero cumulativo di fotogrammi rilevati come progressivi utilizzando il rilevamento di fotogrammi singoli.

multiplo.progressivo
Numero cumulativo di fotogrammi rilevati come progressivi utilizzando il rilevamento di più fotogrammi.

single.indeterminato
Numero cumulativo di fotogrammi che non è stato possibile classificare utilizzando il rilevamento di fotogrammi singoli.

multiplo.indeterminato
Numero cumulativo di frame che non è stato possibile classificare utilizzando frame multipli
rilevamento.

Repeated.current_frame
Quale campo nel frame corrente viene ripetuto dall'ultimo. Uno dei ``nessuno'',
``alto'', o ``basso''.

ripetuto.nessuno
Numero cumulativo di frame senza campo ripetuto.

ripetuto.top
Numero cumulativo di fotogrammi con il campo superiore ripetuto dall'alto del fotogramma precedente
campo.

ripetuto.fondo
Numero cumulativo di frame con il campo inferiore ripetuto dal frame precedente
campo inferiore.

Il filtro accetta le seguenti opzioni:

intl_thres
Imposta soglia interlacciamento.

prog_thres
Imposta soglia progressiva.

ripetizione_soglia
Soglia per il rilevamento ripetuto del campo.

metà vita
Numero di frame dopo il quale viene dimezzato il contributo di un determinato frame alle statistiche
(cioè, contribuisce solo 0.5 alla sua classificazione). Il valore predefinito di 0 significa che
a tutti i fotogrammi visti viene assegnato il peso completo di 1.0 per sempre.

analysis_interlaced_flag
Quando questo non è 0, idet utilizzerà il numero specificato di frame per determinare se
il flag interlacciato è accurato, non conterà i frame indeterminati. Se la bandiera
risulta essere accurato verrà utilizzato senza ulteriori calcoli, se lo è
ritenuto impreciso verrà cancellato senza ulteriori calcoli. Questo
consente di inserire il filtro idet come metodo di calcolo basso per ripulire il
bandiera interlacciata

il
Deinterlacciare o interlacciare i campi.

Questo filtro consente di elaborare i campi di immagini interlacciate senza deinterlacciarli.
Il deinterlacciamento divide il frame di input in 2 campi (le cosiddette mezze immagini). Linee strane
vengono spostate nella metà superiore dell'immagine di output, anche le linee nella metà inferiore. Puoi
elaborarli (filtrarli) in modo indipendente e poi interlacciarli nuovamente.

Il filtro accetta le seguenti opzioni:

modalità_luminanza, l
modalità_cromatica, c
alfa_mode, a
Valori disponibili per luma_mode, modalità_croma ed alfa_mode siamo:

nessuna
Fare niente.

deinterlacciare, d
Deinterlacciare i campi, posizionandoli uno sopra l'altro.

intercalare, i
Intercalare i campi. Invertire l'effetto del deinterlacciamento.

Il valore predefinito è "nessuno".

luma_swap, ls
scambio di crominanza, cs
alfa_swap, as
Scambia i campi luma/chroma/alpha. Scambia linee pari e dispari. Il valore predefinito è 0.

gonfiare
Applicare l'effetto gonfia al video.

Questo filtro sostituisce il pixel con il locale(3x3) media prendendo in considerazione solo
valori superiori al pixel.

Accetta le seguenti opzioni:

soglia0
soglia1
soglia2
soglia3
Limita la modifica massima per ciascun piano, il valore predefinito è 65535. Se 0, il piano rimarrà
invariato.

intrecciare
Filtro di interlacciamento semplice dai contenuti progressivi. Questo interfoglia superiore (o inferiore)
linee da fotogrammi dispari con linee inferiori (o superiori) da fotogrammi pari, dimezzando il frame rate
e preservare l'altezza dell'immagine.

Originale Originale Nuovo Telaio
Riquadro 'j' Riquadro 'j+1' (tff)
========== ============ ===================
Riga 0 --------------------> Cornice 'j' Riga 0
Riga 1 Riga 1 ----> Cornice 'j+1' Riga 1
Riga 2 ---------------------> Cornice 'j' Riga 2
Riga 3 Riga 3 ----> Cornice 'j+1' Riga 3
... ... ...
Il nuovo Frame + 1 verrà generato da Frame 'j+2' e Frame 'j+3' e così via

Accetta i seguenti parametri opzionali:

scansione
Questo determina se il frame interlacciato è preso da even (tff - default) o
linee dispari (bff) del frame progressivo.

passabasso
Abilita (predefinito) o disabilita il filtro passabasso verticale per evitare l'interlacciamento di Twitter
e ridurre i motivi moiré.

kerndeint
Deinterlaccia il video in ingresso applicando il deinterlamento adattivo del kernel di Donald Graft. Lavorare su
parti interlacciate di un video per produrre fotogrammi progressivi.

Segue la descrizione dei parametri accettati.

trebbiare
Imposta la soglia che influenza la tolleranza del filtro quando si determina se un pixel
linea deve essere elaborata. Deve essere un numero intero compreso nell'intervallo [0,255] e il valore predefinito è 10.
Un valore di 0 comporterà l'applicazione del processo su ogni pixel.

carta geografica Dipingi i pixel che superano il valore di soglia in bianco se impostato su 1. Il valore predefinito è 0.

minimo
Imposta l'ordine dei campi. Scambia i campi se impostato su 1, lascia i campi invariati se 0. Il valore predefinito è 0.

affilato
Abilita ulteriore nitidezza se impostato su 1. L'impostazione predefinita è 0.

a due vie
Abilita la nitidezza bidirezionale se impostata su 1. L'impostazione predefinita è 0.

Esempi

· Applicare i valori predefiniti:

kerndeint=thresh=10:map=0:order=0:sharp=0:twoway=0

· Abilita ulteriore nitidezza:

kerndeint=acuto=1

· Dipingi i pixel elaborati in bianco:

kerndeint=mappa=1

correzione delle lenti
Correzione della distorsione della lente radiale

Questo filtro può essere utilizzato per correggere la distorsione radiale che può derivare dall'uso di
obiettivi grandangolari e quindi rettificare nuovamente l'immagine. Per trovare i parametri giusti si può
utilizzare gli strumenti disponibili ad esempio come parte di opencv o semplicemente per tentativi ed errori. Usare
opencv usa il campione di calibrazione (sotto campioni/cpp) dai sorgenti opencv ed estrai
i coefficienti k1 e k2 dalla matrice risultante.

Nota che in effetti lo stesso filtro è disponibile negli strumenti open source Krita e
Digikam dal progetto KDE.

In contrasto con il vignette filtro, che può essere utilizzato anche per compensare gli errori dell'obiettivo, questo
il filtro corregge la distorsione dell'immagine, mentre vignette corregge la luminosità
distribuzione, quindi potresti voler usare entrambi i filtri insieme in alcuni casi, anche se
dovrà occuparsi dell'ordinazione, cioè se la vignettatura debba essere applicata prima o
dopo la correzione dell'obiettivo.

Opzioni

Il filtro accetta le seguenti opzioni:

cx Coordinata x relativa del punto focale dell'immagine, e quindi il centro del
distorsione. Questo valore ha un intervallo [0,1] ed è espresso come frazioni dell'immagine
larghezza.

cy Coordinata y relativa del punto focale dell'immagine, e quindi il centro del
distorsione. Questo valore ha un intervallo [0,1] ed è espresso come frazioni dell'immagine
altezza.

k1 Coefficiente del termine di correzione quadratica. 0.5 significa nessuna correzione.

k2 Coefficiente del termine di correzione quadratica doppia. 0.5 significa nessuna correzione.

La formula che genera la correzione è:

r_src = r_tgt * (1+ k1 * (r_tgt / r_0)^2+ k2 * (r_tgt / r_0)^4)

where r_0 è la metà della diagonale dell'immagine e r_src ed r_tgt sono le distanze dal
punto focale nelle immagini di origine e di destinazione, rispettivamente.

lut3d
Applicare una LUT 3D a un video in ingresso.

Il filtro accetta le seguenti opzioni:

filetto
Imposta il nome del file LUT 3D.

Formati attualmente supportati:

3dl Effetti postumi

cubo
Irida

dat DaVinci

m3d Pandora

interazione
Seleziona la modalità di interpolazione.

I valori disponibili sono:

più vicino
Utilizzare i valori dal punto definito più vicino.

trilineare
Interpola i valori utilizzando gli 8 punti che definiscono un cubo.

tetraedrico
Interpolare i valori utilizzando un tetraedro.

lutto, lutrgb, lutyuv
Calcola una tabella di ricerca per associare ogni valore di input del componente pixel a un valore di output,
e applicarlo al video in ingresso.

lutyuv applica una tabella di ricerca a un video di input YUV, lutrgb a un ingresso video RGB.

Questi filtri accettano i seguenti parametri:

c0 imposta l'espressione del primo componente in pixel

c1 imposta l'espressione del componente del secondo pixel

c2 imposta l'espressione del terzo componente pixel

c3 imposta l'espressione del quarto componente pixel, corrisponde al componente alfa

r imposta l'espressione del componente rosso

g imposta l'espressione del componente verde

b imposta l'espressione del componente blu

a espressione del componente alfa

y imposta l'espressione della componente Y/luminanza

u imposta l'espressione del componente U/Cb

v imposta l'espressione del componente V/Cr

Ciascuno di essi specifica l'espressione da utilizzare per calcolare la tabella di ricerca per il
corrispondenti valori dei componenti dei pixel.

Il componente esatto associato a ciascuno dei c* le opzioni dipendono dal formato in input.

I leggere il filtro richiede i formati pixel YUV o RGB in input, lutrgb richiede RGB
formati di pixel in input e lutyuv richiede YUV.

Le espressioni possono contenere le seguenti costanti e funzioni:

w
h La larghezza e l'altezza di input.

val Il valore di input per il componente pixel.

clipvale
Il valore di input, ritagliato su minimo-maxval gamma.

maxval
Il valore massimo per il componente pixel.

minimo
Il valore minimo per il componente pixel.

negativo
Il valore negato per il valore del componente pixel, ritagliato su minimo-maxval gamma;
corrisponde all'espressione "maxval-clipval+minval".

clip (valore)
Il valore calcolato in val, agganciato al minimo-maxval gamma.

gammaval(gamma)
Il valore di correzione gamma calcolato del valore del componente pixel, ritagliato sul
minimo-maxval gamma. Corrisponde all'espressione
"pow((clipval-minval)/(maxval-minval)\,gamma)*(maxval-minval)+minval"

Tutte le espressioni di default sono "val".

Esempi

· Nega ingresso video:

lutrgb="r=maxval+minval-val:g=maxval+minval-val:b=maxval+minval-val"
lutyuv="y=maxval+minval-val:u=maxval+minval-val:v=maxval+minval-val"

Quanto sopra è lo stesso di:

lutrgb="r=negval:g=negval:b=negval"
lutyuv="y=negval:u=negval:v=negval"

· Nega luminanza:

lutyuv=y=negativo

· Rimuovi i componenti chroma, trasformando il video in un'immagine in tonalità di grigio:

lutyuv="u=128:v=128"

· Applicare un effetto brucia luminanza:

lutyuv="y=2*val"

· Rimuovere i componenti verdi e blu:

lutrgb="g=0:b=0"

· Imposta un valore del canale alfa costante sull'ingresso:

formato=rgba,lutrgb=a="maxval-minval/2"

· Gamma di luminanza corretta di un fattore 0.5:

lutyuv=y=valore gamma(0.5)

· Elimina i bit meno significativi di luma:

lutyuv=y='bitand(val, 128+64+32)'

fondere i piani
Unisci i componenti del canale colore da diversi flussi video.

Il filtro accetta fino a 4 flussi di input e unisce i piani di input selezionati all'output
video.

Questo filtro accetta le seguenti opzioni:

mappatura
Imposta l'input sulla mappatura del piano di output. Il valore predefinito è 0.

Le mappature sono specificate come bitmap. Dovrebbe essere specificato come numero esadecimale
nella forma 0xAa[Bb[Cc[Dd]]]. 'Aa' descrive la mappatura per il primo piano del
flusso di uscita. 'A' imposta il numero del flusso di input da utilizzare (da 0 a 3), e 'a'
il numero del piano dell'ingresso corrispondente da utilizzare (da 0 a 3). Il resto di
mapping è simile, 'Bb' descrive la mappatura per il secondo piano del flusso di output,
'Cc' descrive la mappatura per il terzo piano del flusso di output e 'Dd' descrive il
mappatura per il quarto piano del flusso di output.

formato
Imposta il formato dei pixel di output. L'impostazione predefinita è "yuva444p".

Esempi

· Unisci tre flussi video grigi della stessa larghezza e altezza in un unico flusso video:

[a0][a1][a2]mergeplanes=0x001020:yuv444p

· Unisci il primo flusso yuv1p e il secondo flusso video grigio nel flusso video yuva444p:

[a0][a1]mergeplanes=0x00010210:yuva444p

· Scambia l'aereo Y e A nel flusso yuva444p:

formato=yuva444p,mergeplanes=0x03010200:yuva444p

· Scambia l'aereo U e V nel flusso yuv420p:

formato=yuv420p,mergeplanes=0x000201:yuv420p

· Trasmetti una clip rgb24 su yuv444p:

format=rgb24,mergeplanes=0x000102:yuv444p

mcdeint
Applicare il deinterlacciamento con compensazione del movimento.

Ha bisogno di un campo per frame come input e quindi deve essere usato insieme a yadif=1/3 o
equivalente.

Questo filtro accetta le seguenti opzioni:

modo
Imposta la modalità di deinterlacciamento.

Accetta uno dei seguenti valori:

veloce
medie
rallentare
usa la stima del movimento iterativa

extra_lento
piace rallentare, ma usa più sistemi di riferimento.

Il valore predefinito è veloce.

parità
Imposta la parità del campo immagine ipotizzata per il video in ingresso. Deve essere uno dei
seguenti valori:

0, tff
assume prima il campo in alto

1, BFF
assume prima il campo in basso

Il valore predefinito è BFF.

qp Imposta il parametro di quantizzazione per blocco (QP) utilizzato dall'encoder interno.

Valori più alti dovrebbero produrre un campo vettoriale di movimento più uniforme ma meno ottimale
vettori individuali. Il valore predefinito è 1.

mpdecimato
Drop frame che non differiscono molto dal frame precedente per ridurre il frame
Vota.

L'uso principale di questo filtroèper la codifica a bitrate molto basso (es. streaming su dialup
modem), ma in teoria potrebbe essere utilizzato per correggere i film con telecine inverso
in modo errato.

Segue una descrizione delle opzioni accettate.

max Imposta il numero massimo di fotogrammi consecutivi che possono essere eliminati (se positivo), oppure
l'intervallo minimo tra i fotogrammi persi (se negativo). Se il valore è 0, il
il fotogramma viene eliminato indipendentemente dal numero di precedenti fotogrammi eliminati in sequenza.

Il valore predefinito è 0.

hi
lo
code
Impostare i valori della soglia di caduta.

Valori per hi ed lo sono per blocchi di 8x8 pixel e rappresentano il valore effettivo dei pixel
differenze, quindi una soglia di 64 corrisponde a 1 unità di differenza per ogni pixel,
o lo stesso distribuito in modo diverso sul blocco.

Un frame è un candidato per l'eliminazione se nessun blocco 8x8 differisce di più di una soglia
of hi, e se non più di code blocchi (1 che significa l'intera immagine) differiscono di più di
una soglia di lo.

Valore predefinito per hi è 64*12, valore predefinito per lo è 64*5 e il valore predefinito per
code è 0.33.

negare
Nega ingresso video.

Accetta un intero in input; se diverso da zero nega la componente alfa (se disponibile).
Il valore predefinito in input è 0.

noformato
Forza libavfilter a non utilizzare nessuno dei formati pixel specificati per l'input al successivo
filtro.

Accetta i seguenti parametri:

pix_fmts
Un elenco separato da '|' di nomi di formati pixel, come apix_fmts=yuv420p|monow|rgb24".

Esempi

· Forza libavfilter a utilizzare un formato diverso da yuv420p per l'input al vflip
Filtro:

noformat=pix_fmts=yuv420p,vflip

· Converti il ​​video in ingresso in uno dei formati non contenuti nell'elenco:

noformat=yuv420p|yuv444p|yuv410p

rumore
Aggiungi rumore sul frame di ingresso video.

Il filtro accetta le seguenti opzioni:

all_seme
c0_seme
c1_seme
c2_seme
c3_seme
Imposta il seme del rumore per un componente pixel specifico o tutti i componenti del pixel in caso di
all_seme. Il valore predefinito è 123457.

all_forza, affatto
c0_forza, c0s
c1_forza, c1s
c2_forza, c2s
c3_forza, c3s
Imposta l'intensità del rumore per un componente pixel specifico o per tutti i componenti pixel nel caso
tutta_forza. Il valore predefinito è 0. L'intervallo consentito è [0, 100].

tutte_bandiere, tutto
c0_flag, c0f
c1_flag, c1f
c2_flag, c2f
c3_flag, c3f
Imposta i flag dei componenti pixel o imposta i flag per tutti i componenti se all_flags. A disposizione
i valori per i flag dei componenti sono:

a rumore temporale medio (più fluido)

p mescolare il rumore casuale con uno schema (semi)regolare

t rumore temporale (il pattern del rumore cambia tra i fotogrammi)

u rumore uniforme (altrimenti gaussiano)

Esempi

Aggiungi rumore temporale e uniforme al video in ingresso:

rumore=tutti=20:tutti=t+u

nullo
Passa la sorgente video invariata all'output.

ocv
Applicare una trasformazione video utilizzando libopencv.

Per abilitare questo filtro, installa la libreria e le intestazioni libopencv e configura FFmpeg con
"--enable-libopencv".

Accetta i seguenti parametri:

nome_filtro
Il nome del filtro libopencv da applicare.

filter_params
I parametri da passare al filtro libopencv. Se non specificato, i valori di default
si presume.

Fare riferimento alla documentazione ufficiale di libopencv per informazioni più precise:
<http://docs.opencv.org/master/modules/imgproc/doc/filtering.html>

Sono supportati diversi filtri libopencv; vedere le sottosezioni seguenti.

espande

Dilatare un'immagine utilizzando un elemento strutturante specifico. Corrisponde alla libopencv
funzione "cvDilate".

Accetta i parametri: struttura_el|nb_iterazioni.

struttura_el rappresenta un elemento strutturante e ha la sintassi:
colsxrighe+ancora_xxancora_y/forma

cols ed righe rappresentano il numero di colonne e righe dell'elemento strutturante,
ancora_x ed ancora_y il punto di ancoraggio, e forma la forma per l'elemento strutturante.
forma deve essere "rect", "cross", "ellisse" o "custom".

Se il valore per forma è "personalizzato", deve essere seguito da una stringa della forma
"=Nome del file". Il file con nome Nome del file si presume che rappresenti un'immagine binaria, con ciascuno
carattere stampabile corrispondente a un pixel luminoso. Quando una consuetudine forma si usa, cols ed
righe vengono ignorati, vengono invece assunti il ​​numero o le colonne e le righe del file letto.

Il valore predefinito per struttura_el è "3x3+0x0/retta".

nb_iterazioni specifica il numero di volte in cui la trasformazione viene applicata all'immagine e
il valore predefinito è 1.

Qualche esempio:

# Usa i valori predefiniti
ocv=dilatare

# Dilatare usando un elemento strutturante con una croce 5x5, iterando due volte
ocv=filter_name=dilate:filter_params=5x5+2x2/cross|2

# Legge la forma dal file diamond.shape, iterando due volte.
# Il file diamond.shape può contenere uno schema di caratteri come questo
#*
#***
#*****
#***
#*
# Le colonne e le righe specificate vengono ignorate
# ma le coordinate del punto di ancoraggio non lo sono
ocv=dilate:0x0+2x2/custom=diamond.shape|2

erodere

Erodere un'immagine utilizzando un elemento strutturante specifico. Corrisponde alla libopencv
funzione "cvErode".

Accetta i parametri: struttura_el:nb_iterazioni, con la stessa sintassi e semantica di
, il espande filtro.

lisciare

Uniforma il video in ingresso.

Il filtro accetta i seguenti parametri: Digitare|param1|param2|param3|param4.

Digitare è il tipo di filtro uniforme da applicare e deve essere uno dei seguenti valori:
"blur", "blur_no_scale", "median", "gaussian" o "bilateral". Il valore predefinito è
"gaussiano".

Il significato di param1, param2, param3e param4 dipendono dal tipo liscio. param1 ed
param2 accettare valori interi positivi o 0. param3 ed param4 accetta in virgola mobile
valori.

Il valore predefinito per param1 è 3. Il valore predefinito per gli altri parametri è 0.

Questi parametri corrispondono ai parametri assegnati alla funzione libopencv
"cvSmooth".

copertura
Sovrapponi un video sopra un altro.

Richiede due ingressi e ha un'uscita. Il primo input è il video "principale" su cui
il secondo input è sovrapposto.

Accetta i seguenti parametri:

Segue una descrizione delle opzioni accettate.

x
y Imposta l'espressione per le coordinate x e y del video sovrapposto sul main
video. Il valore predefinito è "0" per entrambe le espressioni. Nel caso in cui l'espressione non sia valida,
è impostato su un valore enorme (il che significa che l'overlay non verrà visualizzato all'interno del
area visibile di uscita).

eof_azione
L'azione da intraprendere quando si incontra EOF sull'ingresso secondario; ne accetta uno
i seguenti valori:

ripetere
Ripeti l'ultimo fotogramma (l'impostazione predefinita).

alla fine
Termina entrambi i flussi.

passare
Passare l'input principale.

eval
Imposta quando le espressioni per xe y vengono valutati.

Accetta i seguenti valori:

init
valuta le espressioni solo una volta durante l'inizializzazione del filtro o quando un comando
è processato

telaio
valutare le espressioni per ogni frame in arrivo

Il valore predefinito è telaio.

più breve
Se impostato su 1, forza la terminazione dell'uscita quando termina l'ingresso più breve. Predefinito
il valore è 0.

formato
Imposta il formato per il video di output.

Accetta i seguenti valori:

yuv420
forza l'uscita YUV420

yuv422
forza l'uscita YUV422

yuv444
forza l'uscita YUV444

rgb forza l'uscita RGB

Il valore predefinito è yuv420.

rgb (deprecato)
Se impostato su 1, forza il filtro ad accettare input nello spazio colore RGB. Valore di default
è 0. Questa opzione è deprecata, usa formato anziché.

ripeti l'ultima
Se impostato su 1, forza il filtro a disegnare l'ultimo riquadro di sovrapposizione sull'ingresso principale fino a quando
la fine del flusso. Un valore 0 disabilita questo comportamento. Il valore predefinito è 1.

I xe y le espressioni possono contenere i seguenti parametri.

principale_w, W
principale_h, H
La larghezza e l'altezza di input principali.

sovrapposizione_w, w
sovrapposizione_h, h
La larghezza e l'altezza di input della sovrapposizione.

x
y I valori calcolati per x ed y. Vengono valutati per ogni nuovo frame.

hsub
vssub
valori del sottocampione di crominanza orizzontale e verticale del formato di output. Ad esempio per
il formato pixel "yuv422p" hsub è 2 e vssub è 1.

n il numero di frame di input, a partire da 0

inviare la posizione nel file del frame di input, NAN se sconosciuto

t Il timestamp, espresso in secondi. È NAN se il timestamp di input è sconosciuto.

Notare quello n, inviare, t le variabili sono disponibili solo al termine della valutazione per telaio,
e valuterà in NAN quando eval è impostato su init.

Tieni presente che i fotogrammi vengono presi da ciascun video in ingresso in ordine di data e ora, quindi, se il loro
i timestamp iniziali differiscono, è una buona idea far passare i due ingressi attraverso a
setpts=PTS-STARTPTS filtro per farli iniziare con lo stesso timestamp zero, come nell'esempio
per l' film filtro fa.

È possibile concatenare più sovrapposizioni, ma è necessario testare l'efficienza di tale approccio.

Comandi

Questo filtro supporta i seguenti comandi:

x
y Modificare x e y dell'input di sovrapposizione. Il comando accetta la stessa sintassi del
opzione corrispondente.

Se l'espressione specificata non è valida, viene mantenuta al suo valore corrente.

Esempi

· Disegna la sovrapposizione a 10 pixel dall'angolo in basso a destra del video principale:

overlay=main_w-overlay_w-10:main_h-overlay_h-10

Usando le opzioni con nome, l'esempio sopra diventa:

sovrapposizione=x=main_w-overlay_w-10:y=main_h-overlay_h-10

· Inserire un logo PNG trasparente nell'angolo in basso a sinistra dell'input, utilizzando il ffmpeg
strumento con l'opzione "-filter_complex":

ffmpeg -i input -i logo -filter_complex 'overlay=10:main_h-overlay_h-10' output

· Inserisci 2 diversi loghi PNG trasparenti (secondo logo nell'angolo in basso a destra) usando
, il ffmpeg Strumento:

ffmpeg -i input -i logo1 -i logo2 -filter_complex 'overlay=x=10:y=Hh-10,overlay=x=Ww-10:y=Hh-10' output

· Aggiungi uno strato di colore trasparente sopra il video principale; "WxH" deve specificare la dimensione di
l'ingresso principale al filtro di sovrapposizione:

[email protected]:dimensione=LxA [sopra]; [dentro] [sopra] sovrapposizione [fuori]

· Riproduci un video originale e una versione filtrata (qui con il filtro deshake) fianco a fianco
lato usando il ffplay Strumento:

ffplay input.avi -vf 'dividi[a][b]; [a]pad=iw*2:ih[origine]; [b]agitare[filtrare]; [src][filt]overlay=w'

Il comando precedente è lo stesso di:

ffplay input.avi -vf 'split[b], pad=iw*2[src], [b]deshake, [src]overlay=w'

· Crea una sovrapposizione scorrevole che appaia dalla parte superiore sinistra a destra dello schermo
a partire dall'ora 2:

overlay=x='if(gte(t,2), -w+(t-2)*20, NAN)':y=0

· Componi l'output affiancando due video di input:

ffmpeg -i left.avi -i right.avi -filter_complex "
nullsrc=dimensione=200x100 [sfondo];
[0:v] setpts=PTS-STARTPTS, scale=100x100 [sinistra];
[1:v] setpts=PTS-STARTPTS, scale=100x100 [destra];
[sfondo][sinistra] overlay=più corto=1 [sfondo+sinistra];
[sfondo+sinistra][destra] sovrapposizione=più corta=1:x=100 [sinistra+destra]
"

· Maschera 10-20 secondi di un video applicando il filtro delogo a una sezione

ffmpeg -i test.avi -codec:v:0 wmv2 -ar 11025 -b:v 9000k
-vf '[in]split[split_main][split_delogo];[split_delogo]trim=start=360:end=371,delogo=0:0:640:480[delogoed];[split_main][delogoed]overlay=eof_action=pass[out]'
mascherato.avi

· Concatena più sovrapposizioni in cascata:

nullsrc=s=200x200 [bg];
testsrc=s=100x100, split=4 [in0][in1][in2][in3];
[in0] lutrgb=r=0, [bg] sovrapposizione=0:0 [mid0];
[in1] lutrgb=sol=0, [mid0] overlay=100:0 [mid1];
[in2] lutrgb=b=0, [mid1] sovrapposizione=0:100 [mid2];
[in3] nullo, [mid2] sovrapposizione=100:100 [out0]

rumore
Applicare il denoiser Wavelet troppo completo.

Il filtro accetta le seguenti opzioni:

profondità
Imposta la profondità.

Valori di profondità maggiori ridurranno maggiormente il rumore delle componenti a frequenza più bassa, ma rallenterà
filtraggio.

Deve essere un int nell'intervallo 8-16, il valore predefinito è 8.

forza_luminosa, ls
Imposta l'intensità luminosa.

Deve essere un valore double nell'intervallo 0-1000, il valore predefinito è 1.0.

forza_cromatica, cs
Imposta l'intensità della crominanza.

Deve essere un valore double nell'intervallo 0-1000, il valore predefinito è 1.0.

sentiero
Aggiungi imbottiture all'immagine di input e posiziona l'input originale nel punto fornito x, y
coordinate.

Accetta i seguenti parametri:

larghezza, w
altezza, h
Specificare un'espressione per la dimensione dell'immagine di output con i padding aggiunti. Se la
valore per larghezza or altezza è 0, la dimensione dell'input corrispondente viene utilizzata per l'output.

I larghezza espressione può fare riferimento al valore impostato da altezza espressione e vizio
versa.

Il valore predefinito di larghezza ed altezza è 0.

x
y Specificare gli offset per posizionare l'immagine di input all'interno dell'area imbottita, rispetto
al bordo superiore/sinistro dell'immagine di output.

I x espressione può fare riferimento al valore impostato da y espressione e viceversa.

Il valore predefinito di x ed y è 0.

colore
Specificare il colore dell'area imbottita. Per la sintassi di questa opzione, seleziona "Colore"
sezione nel manuale ffmpeg-utils.

Il valore predefinito di colore è nero".

Il valore per larghezza, altezza, xe y le opzioni sono espressioni che contengono quanto segue
costanti:

in_w
in_h
La larghezza e l'altezza del video in ingresso.

iw
ih Questi sono gli stessi di in_w ed in_h.

fuori_w
fuori_h
La larghezza e l'altezza dell'output (la dimensione dell'area imbottita), come specificato dal larghezza
ed altezza espressioni.

ow
oh Questi sono gli stessi di fuori_w ed fuori_h.

x
y Gli offset x e y come specificato da x ed y espressioni, o NAN se non ancora
specificato.

a stesso iw / ih

sar rapporto di aspetto del campione di ingresso

dare rapporto di aspetto del display di input, è lo stesso di (iw / ih🇧🇷 sar

hsub
vssub
I valori del sottocampione di crominanza orizzontale e verticale. Ad esempio per il formato pixel
"yuv422p" hsub è 2 e vssub è 1.

Esempi

· Aggiungere imbottiture con il colore "viola" al video in ingresso. La dimensione del video in uscita è
640x480 e l'angolo in alto a sinistra del video di input è posizionato nella colonna 0, riga 40

pad=640:480:0:40:viola

L'esempio sopra è equivalente al seguente comando:

pad=larghezza=640:altezza=480:x=0:y=40:colore=viola

· Imbottire l'input per ottenere un output con dimensioni aumentate di 3/2 e inserire l'input
video al centro dell'area imbottita:

pad="3/2*iw:3/2*ih:(ow-iw)/2:(oh-ih)/2"

· Pad l'input per ottenere un output al quadrato con dimensione pari al valore massimo tra i
inserisci larghezza e altezza e metti il ​​video di input al centro dell'area imbottita:

pad="max(iw\,ih):ow:(ow-iw)/2:(oh-ih)/2"

· Pad l'input per ottenere un rapporto w/h finale di 16:9:

pad="ih*16/9:ih:(ow-iw)/2:(oh-ih)/2"

· In caso di video anamorfico, per impostare correttamente l'aspetto di visualizzazione dell'uscita, è
è necessario utilizzare sar nell'espressione, secondo la relazione:

(ih*X/ih)*sar = output_dar
X = uscita_dar/sar

Quindi l'esempio precedente deve essere modificato in:

pad="ih*16/9/sar:ih:(ow-iw)/2:(oh-ih)/2"

· Raddoppia la dimensione dell'output e metti il ​​video di input nell'angolo in basso a destra del
area imbottita in uscita:

pad="2*iw:2*ih:ow-iw:oh-ih"

tavolozza
Genera una tavolozza per un intero flusso video.

Accetta le seguenti opzioni:

max_colori
Imposta il numero massimo di colori da quantizzare nella tavolozza. Nota: la tavolozza sarà
contengono ancora 256 colori; le voci della tavolozza non utilizzate saranno nere.

riserva_trasparente
Crea una tavolozza di massimo 255 colori e riserva l'ultimo per la trasparenza.
La prenotazione del colore della trasparenza è utile per l'ottimizzazione GIF. Se non è impostato, il
il massimo di colori nella tavolozza sarà 256. Probabilmente vorrai disabilitare questa opzione
per un'immagine a sé stante. Impostato per impostazione predefinita.

modalità_statistiche
Imposta la modalità statistiche.

Accetta i seguenti valori:

pieno
Calcola istogrammi full frame.

diff
Calcola istogrammi solo per la parte che differisce dal fotogramma precedente. Questo potrebbe
essere rilevante per dare più importanza alla parte mobile del tuo input se
lo sfondo è statico.

Il valore predefinito è pieno.

Il filtro esporta anche i metadati del frame "lavfi.color_quant_ratio" ("nb_color_in /
nb_color_out") che puoi usare per valutare il grado di quantizzazione del colore del
tavolozza. Questa informazione è visibile anche su info livello di registrazione.

Esempi

· Generare una tavolozza rappresentativa di un determinato video utilizzando ffmpeg:

ffmpeg -i input.mkv -vf palettegen palette.png

tavolozza
Utilizzare una tavolozza per eseguire il downsampling di un flusso video in ingresso.

Il filtro accetta due input: un flusso video e una tavolozza. La tavolozza deve essere un 256
immagine di pixel.

Accetta le seguenti opzioni:

tremare
Seleziona la modalità di retinatura. Gli algoritmi disponibili sono:

Bavarese
Dithering bayer 8x8 ordinato (deterministico)

Heckbert
Dithering come definito da Paul Heckbert nel 1982 (diffusione di errore semplice). Nota:
questo dithering è talvolta considerato "sbagliato" ed è incluso come riferimento.

floyd_steinberg
Dithering Floyd e Steingberg (diffusione errore)

sierra2
Frankie Sierra dithering v2 (diffusione errore)

sierra2_4a
Frankie Sierra dithering v2 "Lite" (diffusione errore)

L'impostazione predefinita è sierra2_4a.

bayer_scale
Quando Bavarese è selezionato il dithering, questa opzione definisce la scala del pattern (come
molto il modello di tratteggio incrociato è visibile). Un valore basso indica uno schema più visibile per
meno bande e un valore più alto significa un motivo meno visibile al costo di più bande.

L'opzione deve essere un valore intero nell'intervallo [0,5]. L'impostazione predefinita è 2.

modalità_diff
Se impostato, definire la zona da elaborare

rettangolo
Verrà rielaborato solo il rettangolo che cambia. È simile a GIF
meccanismo di compressione di ritaglio/compensazione. Questa opzione può essere utile per la velocità se
solo una parte dell'immagine sta cambiando e ha casi d'uso come la limitazione dell'ambito
dell'errore diffusol tremare al rettangolo che delimita la scena in movimento (it
porta a un output più deterministico se la scena non cambia molto, e come a
risulta meno rumore in movimento e una migliore compressione GIF).

L'impostazione predefinita è nessuna.

Esempi

· Utilizzare una tavolozza (generata ad esempio con tavolozza) per codificare una GIF usando ffmpeg:

ffmpeg -i input.mkv -i tavolozza.png -lavfi tavolozzause output.gif

prospettiva
Prospettiva corretta del video non registrato perpendicolarmente allo schermo.

Segue una descrizione dei parametri accettati.

x0
y0
x1
y1
x2
y2
x3
y3 Imposta l'espressione delle coordinate per in alto a sinistra, in alto a destra, in basso a sinistra e in basso a destra
angoli. I valori predefiniti sono "0:0:L:0:0:H:W:H" con cui rimarrà la prospettiva
invariato. Se l'opzione "sense" è impostata su "source", i punti specificati lo faranno
essere inviato agli angoli della destinazione. Se l'opzione "senso" è impostata su
"destinazione", quindi gli angoli della sorgente verranno inviati al specificato
coordinate.

Le espressioni possono utilizzare le seguenti variabili:

W
H la larghezza e l'altezza del fotogramma video.

interpolazione
Imposta l'interpolazione per la correzione prospettica.

Accetta i seguenti valori:

lineare
cubico

Il valore predefinito è lineare.

senso
Imposta l'interpretazione delle opzioni delle coordinate.

Accetta i seguenti valori:

0, source
Invia punto nella sorgente specificata dalle coordinate date agli angoli del
destinazione.

1, destinazione
Invia gli angoli della sorgente al punto nella destinazione specificato dal
coordinate date.

Il valore predefinito è source.

fase
Ritarda il video interlacciato di una volta sul campo in modo che l'ordine dei campi cambi.

L'uso previsto è quello di correggere i filmati PAL che sono stati catturati con il campo opposto
per il trasferimento da film a video.

Segue una descrizione dei parametri accettati.

modo
Imposta la modalità di fase.

Accetta i seguenti valori:

t Acquisisci l'ordine dei campi prima in alto, trasferisci prima in basso. Il filtro ritarderà il
campo inferiore.

b Acquisisci l'ordine dei campi prima in basso, trasferisci prima in alto. Il filtro ritarderà la parte superiore
campo.

p Cattura e trasferisci con lo stesso ordine di campo. Questa modalità esiste solo per il
documentazione delle altre opzioni a cui fare riferimento, ma se effettivamente la selezioni, il
il filtro fedelmente non farà nulla.

a Cattura l'ordine dei campi determinato automaticamente dai flag di campo, trasferisci di fronte.
Il filtro seleziona tra t ed b modalità fotogramma per fotogramma utilizzando i flag di campo. Se
non sono disponibili informazioni sul campo, quindi funziona proprio come u.

u Cattura sconosciuto o variabile, trasferisci opposto. Il filtro seleziona tra t ed b su una
fotogramma per fotogramma analizzando le immagini e selezionando l'alternativa che
produce la migliore corrispondenza tra i campi.

T Cattura per primo, trasferisci sconosciuto o variabile. Il filtro seleziona tra t ed p
utilizzando l'analisi delle immagini.

B Cattura prima dal basso, trasferisci sconosciuto o variabile. Il filtro seleziona tra b ed p
utilizzando l'analisi delle immagini.

A Cattura determinata da flag di campo, trasferimento sconosciuto o variabile. Il filtro seleziona
tra t, b ed p utilizzando flag di campo e analisi delle immagini. Se nessuna informazione sul campo è
disponibile, allora funziona proprio come U. Questa è la modalità di default.

U Entrambi catturano e trasferiscono sconosciuti o variabili. Il filtro seleziona tra t, b ed p
utilizzando solo l'analisi delle immagini.

pixdesctest
Filtro test descrittore formato pixel, utile principalmente per test interni. Il video in uscita
dovrebbe essere uguale al video in ingresso.

Per esempio:

format=monow, pixdesctest

può essere utilizzato per testare la definizione del descrittore del formato pixel monobianco.

pp
Abilita la catena specificata di sottofiltri di post-elaborazione usando libpostproc. Questa libreria
dovrebbe essere selezionato automaticamente con una build GPL ("--enable-gpl"). I sottofiltri devono essere
separato da '/' e può essere disabilitato anteponendo un '-'. Ogni sottofiltro e alcune opzioni
avere un nome corto e uno lungo che possono essere usati in modo intercambiabile, ad esempio dr/dering sono i
stesso.

I filtri accettano le seguenti opzioni:

sottofiltri
Imposta la stringa dei filtri secondari di post-elaborazione.

Tutti i filtri secondari condividono opzioni comuni per determinarne l'ambito:

a/autoq
Onora i comandi di qualità per questo sottofiltro.

c/cromo
Esegui anche il filtraggio della crominanza (impostazione predefinita).

si/nocromo
Esegui solo il filtraggio della luminanza (nessuna crominanza).

n/nolum
Esegui solo il filtraggio della crominanza (nessuna luminanza).

Queste opzioni possono essere aggiunte dopo il nome del sottofiltro, separate da un '|'.

I sottofiltri disponibili sono:

hb/hdeblock[|differenza[|piattezza]]
Filtro di sblocco orizzontale

differenza
Fattore di differenza dove valori più alti significano più sbloccaggio (predefinito: 32).

pianura
Soglia di planarità dove valori più bassi significano più deblock (predefinito: 39).

vb/vdeblock[|differenza[|piattezza]]
Filtro di sblocco verticale

differenza
Fattore di differenza dove valori più alti significano più sbloccaggio (predefinito: 32).

pianura
Soglia di planarità dove valori più bassi significano più deblock (predefinito: 39).

ha/hadeblock[|differenza[|piattezza]]
Filtro di sblocco orizzontale accurato

differenza
Fattore di differenza dove valori più alti significano più sbloccaggio (predefinito: 32).

pianura
Soglia di planarità dove valori più bassi significano più deblock (predefinito: 39).

va/vadeblock[|differenza[|piattezza]]
Filtro di deblock verticale accurato

differenza
Fattore di differenza dove valori più alti significano più sbloccaggio (predefinito: 32).

pianura
Soglia di planarità dove valori più bassi significano più deblock (predefinito: 39).

I filtri di deblock orizzontale e verticale condividono i valori di differenza e planarità quindi
non è possibile impostare soglie orizzontali e verticali diverse.

h1/x1hdeblocco
Filtro di deblock orizzontale sperimentale

blocco v1/x1v
Filtro di deblock verticale sperimentale

dottor/dering
Filtro antiusura

tn/tmpnoise[|soglia1[|soglia2[|soglia3]]], temporaneo rumore riduttore
soglia1
più grande -> filtraggio più forte

soglia2
più grande -> filtraggio più forte

soglia3
più grande -> filtraggio più forte

al/autolivelli[:f/range completo], automaticamente in Sistemi luminosità / contrasto correzione
f/range completo
Allunga la luminanza a "0-255".

lb/linblenddeint
Filtro deinterlacciamento blend lineare che deinterlaccia il blocco dato filtrando tutto
righe con un filtro "(1 2 1)".

li/linipoldeint
Filtro di deinterlacciamento a interpolazione lineare che deinterlaccia il blocco dato di
interpolando linearmente ogni seconda riga.

ci/cubicipoldeint
Il filtro di deinterlacciamento con interpolazione cubica deinterlaccia il blocco dato in modo cubico
interpolando ogni seconda riga.

md/mediandeint
Filtro di deinterlacciamento mediano che deinterlaccia il blocco dato applicando una mediana
filtrare ogni seconda riga.

fd/ffmpegdeint
Filtro di deinterlacciamento FFmpeg che deinterlaccia il blocco dato filtrando ogni
seconda riga con un filtro "(-1 4 2 4 -1)".

l5/passabasso5
Filtro deinterlacciamento passa-basso FIR applicato verticalmente che deinterlaccia il blocco dato
filtrando tutte le righe con un filtro "(-1 2 6 2 -1)".

fq/forceQuant[|quantizzatore]
Sostituisce la tabella del quantizzatore dall'input con il quantizzatore costante specificato.

quantizzazione
Quantizzatore da usare

de/predefinito
Combinazione di filtri pp predefinita ("hb|a,vb|a,dr|a")

fa/veloce
Combinazione rapida di filtri pp ("h1|a,v1|a,dr|a")

ac Combinazione di filtri pp di alta qualità ("ha|a|128|7,va|a,dr|a")

Esempi

· Applicare il deblock orizzontale e verticale, il dering e la luminosità/contrasto automatici:

pp = hb/vb/dr/al

· Applicare filtri predefiniti senza correzione di luminosità/contrasto:

pp=de/-al

· Applicare filtri predefiniti e denoiser temporale:

pp=predefinito/tmpnoise|1|2|3

· Applicare il deblock solo sulla luminanza e attivare o disattivare il deblock verticale
automaticamente in base al tempo CPU disponibile:

pp=hb|y/vb|a

pp7
Applicare il filtro di post-elaborazione 7. È una variante del spp filtro, simile a spp = 6 con 7
punto DCT, dove viene utilizzato solo il campione centrale dopo IDCT.

Il filtro accetta le seguenti opzioni:

qp Forza un parametro di quantizzazione costante. Accetta un numero intero compreso tra 0 e 63. Se
non impostato, il filtro utilizzerà il QP dal flusso video (se disponibile).

modo
Imposta la modalità di soglia. Le modalità disponibili sono:

difficile
Imposta soglia rigida.

morbido
Imposta soglia morbida (effetto di attenuazione del suono migliore, ma probabilmente più sfocato).

medie
Imposta soglia media (buoni risultati, impostazione predefinita).

psn
Ottieni il PSNR medio, massimo e minimo (rapporto segnale di picco/rumore) tra due
inserire video.

Questo filtro prende in ingresso due video in ingresso, il primo ingresso è considerato il "principale"
source e viene passato invariato all'output. Il secondo ingresso viene utilizzato come "riferimento"
video per il calcolo del PSNR.

Entrambi gli ingressi video devono avere la stessa risoluzione e lo stesso formato pixel affinché questo filtro funzioni
correttamente. Inoltre presuppone che entrambi gli ingressi abbiano lo stesso numero di frame, che sono
confrontati uno per uno.

Il PSNR medio ottenuto viene stampato tramite il sistema di registrazione.

Il filtro memorizza l'MSE (errore quadratico medio) accumulato di ciascun fotogramma e alla fine
dell'elaborazione viene calcolata la media su tutti i frame allo stesso modo e la seguente formula è
applicato per ottenere il PSNR:

PSNR = 10*log10(MAX^2/MSE)

Dove MAX è la media dei valori massimi di ogni componente dell'immagine.

Segue la descrizione dei parametri accettati.

file_stats, f
Se specificato, il filtro utilizzerà il file denominato per salvare il PSNR di ogni individuo
telaio.

Il file stampato se file_stats è selezionato, contiene una sequenza di coppie chiave/valore di
modulo chiave:APPREZZIAMO per ogni coppia di frame confrontati.

Segue una descrizione di ciascun parametro mostrato:

n numero sequenziale del frame di input, a partire da 1

mse_avg
Differenza media pixel per pixel dell'errore quadratico medio dei fotogrammi confrontati, media
su tutti i componenti dell'immagine.

mse_y, mse_u, ms_v, ms_r, ms_g, ms_g, ms_a
Differenza media pixel per pixel dell'errore quadratico medio dei fotogrammi confrontati per il
componente specificato dal suffisso.

psnr_y, psnr_u, psnr_v, psnr_r, psnr_g, psnr_b, psnr_a
Rapporto segnale di picco/rumore dei frame confrontati per il componente specificato dal
suffisso.

Per esempio:

movie=ref_movie.mpg, setpts=PTS-STARTPTS [principale];
[main][ref] psnr="stats_file=stats.log" [out]

In questo esempio il file di input in elaborazione viene confrontato con il file di riferimento
ref_film.mpg. Il PSNR di ogni singolo frame è memorizzato in statistiche.log.

pull up
Filtro pulldown reversal (inverse telecine), in grado di gestire hard-telecine misti,
Contenuti progressivi a 24000/1001 fps e 30000/1001 fps progressivi.

Il filtro pullup è progettato per sfruttare il contesto futuro nel prendere le proprie decisioni.
Questo filtro è senza stato, nel senso che non si aggancia a uno schema da seguire, ma
attende invece i seguenti campi per identificare le corrispondenze e ricostruire
frame progressivi.

Per produrre contenuti con un framerate uniforme, inserisci il filtro fps dopo il pullup, usa
"fps=24000/1001" se il frame rate di input è 29.97fps, "fps=24" per 30fps e il (raro)
ingresso telecine a 25 fps.

Il filtro accetta le seguenti opzioni:

jl
jr
jt
jb Queste opzioni impostano la quantità di "spazzatura" da ignorare a sinistra, a destra, in alto e in basso
dell'immagine, rispettivamente. Sinistra e destra sono in unità di 8 pixel, mentre in alto e
fondo sono in unità di 2 righe. L'impostazione predefinita è 8 pixel su ciascun lato.

sb Imposta le interruzioni rigorose. L'impostazione di questa opzione su 1 ridurrà le possibilità di filtro
generando un frame non corrispondente occasionale, ma può anche causare un numero eccessivo
di fotogrammi da eliminare durante le sequenze ad alto movimento. Al contrario, impostandolo su -1
renderà i campi di corrispondenza del filtro più facilmente. Questo può aiutare l'elaborazione del video dove
c'è una leggera sfocatura tra i campi, ma può anche causare l'interlacciamento
frame in uscita. Il valore predefinito è 0.

mp Imposta il piano metrico da utilizzare. Accetta i seguenti valori:

l Usa il piano luminoso.

u Usa il piano blu di crominanza.

v Usa il piano rosso crominanza.

Questa opzione può essere impostata per utilizzare il piano luminanza invece del piano luminanza predefinito per fare
calcoli del filtro Ciò può migliorare la precisione su materiale di origine molto pulito, ma
più probabilmente ridurrà la precisione, specialmente se c'è rumore di crominanza (arcobaleno
effetto) o qualsiasi video in scala di grigi. Lo scopo principale dell'impostazione mp a un piano di crominanza è
per ridurre il carico della CPU e rendere i pullup utilizzabili in tempo reale su macchine lente.

Per ottenere i migliori risultati (senza fotogrammi duplicati nel file di output) è necessario modificare
la frequenza dei fotogrammi in uscita. Ad esempio, per invertire l'input NTSC di telecine:

ffmpeg -i input -vf pullup -r 24000/1001 ...

qp
Modificare i parametri di quantizzazione video (QP).

Il filtro accetta la seguente opzione:

qp Imposta l'espressione per il parametro di quantizzazione.

L'espressione viene valutata tramite l'API eval e può contenere, tra gli altri, il
seguenti costanti:

conosciuto
1 se index non è 129, 0 altrimenti.

qp Indice sequenziale a partire da -129 a 128.

Esempi

· Alcune equazioni come:

qp=2+2*peccato(PI*qp)

casuale
Scarica i fotogrammi video dalla cache interna dei fotogrammi in un ordine casuale. Nessuna cornice è
scartato. Ispirato da frei0r filtro nervoso.

montatura
Imposta la dimensione in numero di frame della cache interna, nell'intervallo da 2 a 512. Il valore predefinito è 30.

seme
Imposta il seme per il generatore di numeri casuali, deve essere un numero intero compreso tra 0 e
"UINT32_MAX". Se non specificato, o se impostato esplicitamente a meno di 0, il filtro lo farà
prova a usare un buon seme casuale sulla base del massimo sforzo.

rimuoveregrano
Il filtro removegrain è un denoiser spaziale per video progressivi.

m0 Imposta la modalità per il primo piano.

m1 Imposta la modalità per il secondo piano.

m2 Imposta la modalità per il terzo piano.

m3 Imposta la modalità per il quarto piano.

L'intervallo di modalità è compreso tra 0 e 24. Di seguito è riportata la descrizione di ciascuna modalità:

0 Lascia invariato il piano di input. Predefinito.

1 Ritaglia il pixel con il minimo e il massimo degli 8 pixel vicini.

2 Ritaglia il pixel con il secondo minimo e massimo degli 8 pixel vicini.

3 Ritaglia il pixel con il terzo minimo e massimo degli 8 pixel adiacenti.

4 Ritaglia il pixel con il quarto minimo e massimo degli 8 pixel vicini. Questo
è equivalente a un filtro mediano.

5 Ritaglio sensibile alla linea che dà il minimo cambiamento.

6 Ritaglio sensibile alla linea, intermedio.

7 Ritaglio sensibile alla linea, intermedio.

8 Ritaglio sensibile alla linea, intermedio.

9 Ritaglio sensibile alla linea su una linea in cui i pixel vicini sono i più vicini.

10 Sostituisce il pixel di destinazione con il vicino più vicino.

11 [1 2 1] Sfocatura kernel orizzontale e verticale.

12 Uguale alla modalità 11.

13 Modalità Bob, interpola il campo superiore dalla linea in cui i pixel vicini sono i
più vicina.

14 Modalità Bob, interpola il campo inferiore dalla linea in cui i pixel vicini sono i
più vicina.

15 Modalità Bob, interpola il campo superiore. Come 13 ma con un'interpolazione più complicata
formula.

16 Modalità Bob, interpola il campo inferiore. Uguale a 14 ma con un più complicato
formula di interpolazione.

17 Ritaglia il pixel con il minimo e il massimo rispettivamente del massimo e del minimo
di ogni coppia di pixel adiacenti opposti.

18 Ritaglio sensibile alla linea utilizzando vicini opposti la cui distanza maggiore dal
il pixel corrente è minimo.

19 Sostituisce il pixel con la media dei suoi 8 vicini.

20 Calcola la media dei 9 pixel ([1 1 1] sfocatura orizzontale e verticale).

21 Ritaglia i pixel usando le medie del vicino opposto.

22 Uguale alla modalità 21 ma più semplice e veloce.

23 Piccolo bordo e rimozione dell'alone, ma ritenuto inutile.

24 Simile a 23.

rimuovilogo
Sopprimere il logo di una stazione TV, utilizzando un file di immagine per determinare quali pixel compongono il
logo. Funziona compilando i pixel che compongono il logo con pixel adiacenti.

Il filtro accetta le seguenti opzioni:

nome del file, f
Imposta il file bitmap del filtro, che può essere qualsiasi formato di immagine supportato da libavformat.
La larghezza e l'altezza del file immagine devono corrispondere a quelle del flusso video in corso
trasformati.

I pixel nell'immagine bitmap fornita con un valore pari a zero non sono considerati parte del
logo, i pixel diversi da zero sono considerati parte del logo. Se usi il bianco (255) per il logo
e nero (0) per il resto, sarai al sicuro. Per creare la bitmap del filtro, è
consigliato di acquisire una schermata di una cornice nera con il logo visibile, e poi
utilizzando un filtro di soglia seguito dal filtro di erosione una o due volte.

Se necessario, piccole macchie possono essere riparate manualmente. Ricorda che se i pixel del logo non lo sono
coperto, la qualità del filtro sarà molto ridotta. Contrassegnare troppi pixel come parte del
il logo non fa tanto male, ma aumenterà la quantità di sfocatura necessaria per coprire
sull'immagine e distruggerà più informazioni del necessario, e i pixel extra lo faranno
rallentare le cose su un grande logo.

campi ripetuti
Questo filtro utilizza il flag repeat_field dalle intestazioni Video ES e dai campi di ripetizioni rigide
in base al suo valore.

inversione, inverso
Invertire una clip.

Avvertenza: questo filtro richiede memoria per eseguire il buffer dell'intera clip, quindi si consiglia di tagliare.

Esempi

· Prendere i primi 5 secondi di un clip e invertirli.

trim=fine=5,retro

ruotare
Ruota il video di un angolo arbitrario espresso in radianti.

Il filtro accetta le seguenti opzioni:

Segue una descrizione dei parametri opzionali.

angolo, a
Imposta un'espressione per l'angolo di cui ruotare il video in ingresso in senso orario,
espresso come numero di radianti. Un valore negativo risulterà in un senso antiorario
rotazione. Per impostazione predefinita è impostato su "0".

Questa espressione viene valutata per ogni fotogramma.

fuori_w, ow
Imposta l'espressione della larghezza di output, il valore predefinito è "iw". Questa espressione viene valutata
solo una volta durante la configurazione.

fuori_h, oh
Imposta l'espressione dell'altezza di output, il valore predefinito è "ih". Questa espressione viene valutata
solo una volta durante la configurazione.

bilineare
Abilita interpolazione bilineare se impostato a 1, il valore 0 la disabilita. Il valore predefinito è
1.

colore di riempimento, c
Imposta il colore utilizzato per riempire l'area di output non coperta dall'immagine ruotata. Per il
sintassi generale di questa opzione, controlla la sezione "Colore" nel manuale di ffmpeg-utils.
Se viene selezionato il valore speciale "nessuno" non viene stampato lo sfondo (utile per
esempio se lo sfondo non viene mai mostrato).

Il valore predefinito è "nero".

Le espressioni per l'angolo e la dimensione dell'output possono contenere le seguenti costanti e
funzioni:

n numero sequenziale del frame di input, a partire da 0. È sempre NAN prima del
il primo fotogramma viene filtrato.

t tempo in secondi del frame di ingresso, è impostato a 0 quando il filtro è configurato. Esso
è sempre NAN prima che il primo frame venga filtrato.

hsub
vssub
valori del sottocampione di crominanza orizzontale e verticale. Ad esempio per il formato pixel
"yuv422p" hsub è 2 e vssub è 1.

in_w, iw
in_h, ih
la larghezza e l'altezza del video in ingresso

fuori_w, ow
fuori_h, oh
la larghezza e l'altezza dell'output, ovvero la dimensione dell'area imbottita come specificato dal
larghezza ed altezza espressioni

riga(a)
Roth(a)
la larghezza/altezza minima richiesta per contenere completamente il video in ingresso ruotato di
a radianti.

Questi sono disponibili solo quando si calcola il fuori_w ed fuori_h espressioni.

Esempi

· Ruotare l'ingresso di PI/6 radianti in senso orario:

ruotare=PI/6

· Ruotare l'ingresso di PI/6 radianti in senso antiorario:

ruotare=-PI/6

· Ruotare l'ingresso di 45 gradi in senso orario:

ruotare=45*PI/180

· Applicare una rotazione costante con periodo T, partendo da un angolo di PI/3:

ruota=PI/3+2*PI*t/T

· Far oscillare la rotazione del video in ingresso con un periodo di T secondi e un'ampiezza
di A radianti:

ruotare=A*sin(2*PI/T*t)

· Ruota il video, la dimensione di output viene scelta in modo che l'intero video di input rotante sia
sempre completamente contenuto nell'output:

ruotare='2*PI*t:ow=hypot(iw,ih):oh=ow'

· Ruota il video, riduci la dimensione dell'output in modo che non venga mai mostrato lo sfondo:

ruotare=2*PI*t:ow='min(iw,ih)/sqrt(2)':oh=ow:c=nessuno

Comandi

Il filtro supporta i seguenti comandi:

a, angolo
Imposta l'espressione dell'angolo. Il comando accetta la stessa sintassi del corrispondente
opzione.

Se l'espressione specificata non è valida, viene mantenuta al suo valore corrente.

sab
Applica sfocatura adattiva forma.

Il filtro accetta le seguenti opzioni:

raggio_luminoso, lr
Imposta l'intensità del filtro sfocatura luma, deve essere un valore nell'intervallo 0.1-4.0, il valore predefinito è 1.0.
Un valore maggiore risulterà in un'immagine più sfocata e in un'elaborazione più lenta.

luma_pre_filter_radius, lpfr
Imposta il raggio del prefiltro luma, deve essere un valore nell'intervallo 0.1-2.0, il valore predefinito è
1.0

forza_luminosa, ls
Imposta la differenza massima di luminanza tra i pixel da considerare, deve essere un valore in
nell'intervallo 0.1-100.0, il valore predefinito è 1.0.

raggio_cromatico, cr
Imposta l'intensità del filtro di sfocatura della crominanza, deve essere un valore nell'intervallo 0.1-4.0. Un valore maggiore
risulterà in un'immagine più sfocata e in un'elaborazione più lenta.

chroma_pre_filter_radius, cpfr
Imposta il raggio del prefiltro crominanza, deve essere un valore nell'intervallo 0.1-2.0.

forza_cromatica, cs
Imposta la differenza massima di crominanza tra i pixel da considerare, deve essere un valore
nella gamma 0.1-100.0.

Ogni valore dell'opzione chroma, se non specificato esplicitamente, è impostato sul luma corresponding corrispondente
valore dell'opzione.

scala
Ridimensiona (ridimensiona) il video di input, usando la libreria libswscale.

Il filtro di scala impone alle proporzioni del display di output di essere lo stesso dell'input, di
modifica delle proporzioni del campione di output.

Se il formato dell'immagine in ingresso è diverso dal formato richiesto dal filtro successivo, il
il filtro di scala convertirà l'input nel formato richiesto.

Opzioni

Il filtro accetta le seguenti opzioni o una qualsiasi delle opzioni supportate da
scalatore libswscale.

See , il scalatore ffmpeg Manuale per l'elenco completo delle opzioni dello scaler.

larghezza, w
altezza, h
Imposta l'espressione della dimensione del video in uscita. Il valore predefinito è la dimensione di input.

Se il valore è 0, la larghezza dell'input viene utilizzata per l'output.

Se uno dei valori è -1, il filtro di scala utilizzerà un valore che mantiene il
proporzioni dell'immagine in ingresso, calcolate dall'altra dimensione specificata. Se
entrambi sono -1, viene utilizzata la dimensione di input

Se uno dei valori è -n con n > 1, anche il filtro di scala utilizzerà un valore che
mantiene il rapporto di aspetto dell'immagine in ingresso, calcolato dall'altro specificato
dimensione. Dopodiché, tuttavia, si assicurerà che la dimensione calcolata sia
divisibile per n e aggiustare il valore se necessario.

Vedere di seguito per l'elenco delle costanti accettate da utilizzare nell'espressione di dimensione.

interla
Imposta la modalità di interlacciamento. Accetta i seguenti valori:

1 Ridimensionamento consapevole dell'interlacciamento forzato.

0 Non applicare il ridimensionamento interlacciato.

-1 Seleziona il ridimensionamento consapevole interlacciato a seconda che i fotogrammi di origine siano contrassegnati
come interlacciato o meno.

Il valore predefinito è 0.

bandiere
Imposta i flag di ridimensionamento di libswscale. Vedere , il scalatore ffmpeg Manuale per l'elenco completo di
i valori. Se non specificato esplicitamente il filtro applica i flag di default.

dimensione, s
Imposta la dimensione del video. Per la sintassi di questa opzione, controlla il "Video dimensione" pagina in
, il ffmpeg-utils Manuale.

in_color_matrice
out_color_matrice
Imposta il tipo di spazio colore YCbCr in/output.

Ciò consente di ignorare il valore rilevato automaticamente e di forzare a
valore specifico utilizzato per l'uscita e l'encoder.

Se non specificato, il tipo di spazio colore dipende dal formato dei pixel.

Possibili valori:

auto
Scegli automaticamente.

bt709
Formato conforme alla raccomandazione dell'Unione internazionale delle telecomunicazioni (ITU)
BT.709.

FCC Imposta lo spazio colore conforme alla Federal Communications Commission degli Stati Uniti
(FCC) Codice dei regolamenti federali (CFR) Titolo 47 (2003) 73.682 (a).

bt601
Imposta lo spazio colore conforme a:

· Raccomandazione del settore delle radiocomunicazioni ITU (ITU-R) BT.601

· ITU-R Rec. BT.470-6 (1998) Sistemi B, B1 e G

· Società degli ingegneri cinematografici e televisivi (SMPTE) ST 170:2004

smpte240m
Imposta lo spazio colore conforme a SMPTE ST 240:1999.

in_intervallo
fuori_intervallo
Imposta l'intervallo di campionamento YCbCr di ingresso/uscita.

Ciò consente di ignorare il valore rilevato automaticamente e di forzare a
valore specifico utilizzato per l'uscita e l'encoder. Se non specificato, l'intervallo dipende da
il formato dei pixel. Valori possibili:

auto
Scegli automaticamente.

jpeg/completo/pc
Impostare l'intervallo completo (0-255 in caso di luma a 8 bit).

MPEG/tv
Impostare l'intervallo "MPEG" (16-235 in caso di luma a 8 bit).

rapporto di aspetto_originale_forzato
Abilita la riduzione o l'aumento della larghezza o dell'altezza del video di output se necessario per mantenere il
proporzioni originali. Valori possibili:

disable
Ridimensiona il video come specificato e disabilita questa funzione.

diminuire
Le dimensioni del video in uscita verranno automaticamente ridotte se necessario.

aumentare
Le dimensioni del video in uscita verranno aumentate automaticamente se necessario.

Un esempio utile di questa opzione è che quando conosci il massimo di un dispositivo specifico
risoluzione consentita, puoi usarlo per limitare il video in uscita a quello, mentre
mantenendo le proporzioni. Ad esempio, il dispositivo A consente la riproduzione 1280x720 e il tuo
il video è 1920x800. Usando questa opzione (impostala per diminuire) e specificando 1280x720 su
la riga di comando rende l'output 1280x533.

Si prega di notare che questa è una cosa diversa rispetto a specificare -1 per w or h, tu ancora
è necessario specificare la risoluzione di output affinché questa opzione funzioni.

I valori del w ed h le opzioni sono espressioni contenenti le seguenti costanti:

in_w
in_h
La larghezza e l'altezza di input

iw
ih Questi sono gli stessi di in_w ed in_h.

fuori_w
fuori_h
L'output (ridimensionato) larghezza e altezza

ow
oh Questi sono gli stessi di fuori_w ed fuori_h

a Lo stesso di iw / ih

sar rapporto di aspetto del campione di ingresso

dare Il rapporto di aspetto del display in ingresso. Calcolato da "(iw / ih) * sar".

hsub
vssub
valori del sottocampione di crominanza di input orizzontale e verticale. Ad esempio per il pixel
formato "yuv422p" hsub è 2 e vssub è 1.

ohsub
ovsub
valori del sottocampione di crominanza di output orizzontale e verticale. Ad esempio per il pixel
formato "yuv422p" hsub è 2 e vssub è 1.

Esempi

· Ridimensiona il video in ingresso a una dimensione di 200x100

scala=l=200:h=100

Questo è equivalente a:

scala=200:100

o:

scala=200x100

· Specificare un'abbreviazione di dimensione per la dimensione di output:

scala=qcif

che si può scrivere anche come:

scala=dimensione=qcif

· Scala l'input a 2x:

scala=w=2*iw:h=2*ih

· Quanto sopra è lo stesso di:

scala=2*in_w:2*in_h

· Scala l'ingresso a 2x con scalatura interlacciata forzata:

scala=2*iw:2*ih:interl=1

· Ridimensiona l'input a metà:

scala=w=iw/2:h=ih/2

· Aumenta la larghezza e imposta l'altezza sulla stessa dimensione:

scala=3/2*iw:ow

· Cerca l'armonia greca:

scala=iw:1/PHI*iw
scala=ih*PHI:ih

· Aumentare l'altezza e impostare la larghezza a 3/2 dell'altezza:

scala=w=3/2*oh:h=3/5*ih

· Aumentare la dimensione, rendendo la dimensione un multiplo dei valori del sottocampione chroma:

scale="trunc(3/2*iw/hsub)*hsub:trunc(3/2*ih/vsub)*vsub"

· Aumentare la larghezza fino a un massimo di 500 pixel, mantenendo le stesse proporzioni del
ingresso:

scale=w='min(500\, iw*3/2):h=-1'

Comandi

Questo filtro supporta i seguenti comandi:

larghezza, w
altezza, h
Imposta l'espressione della dimensione del video in uscita. Il comando accetta la stessa sintassi del
opzione corrispondente.

Se l'espressione specificata non è valida, viene mantenuta al suo valore corrente.

scale2rif
Ridimensiona (ridimensiona) il video in ingresso, in base a un video di riferimento.

Vedi il filtro di scala per le opzioni disponibili, scale2ref supporta lo stesso ma usa il
video di riferimento invece dell'ingresso principale come base.

Esempi

· Ridimensiona un flusso di sottotitoli in modo che corrisponda alle dimensioni del video principale prima della sovrapposizione

'scale2ref[b][a][a][b]overlay'

campi separati
I "campi separati" prendono un ingresso video basato sui fotogrammi e divide ogni fotogramma nei suoi
componenti, producendo una nuova clip a mezza altezza con il doppio del frame rate e il doppio
il conteggio dei fotogrammi.

Questo filtro utilizza le informazioni di dominanza del campo nel frame per decidere quale di ciascuna coppia di
campi da posizionare per primi nell'output. Se si sbaglia usa campo impostato filtra prima
filtro "campi separati".

Setdar, setsar
Il filtro "setdar" imposta le proporzioni del display per il video di uscita del filtro.

Questo viene fatto modificando il rapporto d'aspetto del campione (alias Pixel) specificato, secondo il
seguente equazione:

= / *

Tieni presente che il filtro "setdar" non modifica le dimensioni in pixel del video
portafoto. Inoltre, le proporzioni dello schermo impostate da questo filtro possono essere modificate da filtri successivi
nella filterchain, ad esempio in caso di ridimensionamento o se un altro filtro "setdar" o "setsar" è
applicato.

Il filtro "setsar" imposta il rapporto di aspetto del campione (alias Pixel) per il video di uscita del filtro.

Si noti che come conseguenza dell'applicazione di questo filtro, l'aspetto di visualizzazione dell'output
rapporto cambierà secondo l'equazione di cui sopra.

Tieni presente che le proporzioni del campione impostate dal filtro "setsar" possono essere modificate da
filtri successivi nella filterchain, ad esempio se un altro filtro "setsar" o "setdar" è
applicato.

Accetta i seguenti parametri:

r, rapporto, dare ("setdar" solo), sar ("setsar" solo)
Imposta le proporzioni utilizzate dal filtro.

Il parametro può essere una stringa di numeri in virgola mobile, un'espressione o una stringa di
modulo num:giorno, Dove num ed giorno sono numeratore e denominatore delle proporzioni.
Se il parametro non è specificato, si assume il valore "0". Nel caso in cui il modulo
"num:giorno" viene utilizzato, il carattere ":" deve essere sfuggito.

max Imposta il valore intero massimo da utilizzare per esprimere numeratore e denominatore quando
riducendo le proporzioni espresse a un razionale. Il valore predefinito è 100.

Il parametro sar è un'espressione contenente le seguenti costanti:

E, PI, PHI
Questi sono valori approssimati per le costanti matematiche e (numero di Eulero), pi
(Pi greco) e phi (il rapporto aureo).

w, h
La larghezza e l'altezza di input.

a Questi sono gli stessi di w / h.

sar Le proporzioni del campione di input.

dare Il rapporto di aspetto del display in ingresso. È lo stesso di (w / h🇧🇷 sar.

sub, vssub
Valori del sottocampione di crominanza orizzontale e verticale. Ad esempio, per il formato pixel
"yuv422p" hsub è 2 e vssub è 1.

Esempi

· Per modificare le proporzioni del display in 16:9, specificare una delle seguenti opzioni:

setdar=dar=1.77777
setdar=dar=16/9
setdar=dar=1.77777

· Per modificare le proporzioni del campione in 10:11, specificare:

setsar=sar=10/11

· Per impostare un rapporto di aspetto del display di 16:9 e specificare un valore intero massimo di 1000 pollici
la riduzione delle proporzioni, utilizzare il comando:

setdar=rapporto=16/9:max=1000

campo impostato
Campo di forza per il fotogramma video in uscita.

Il filtro "setfield" contrassegna il campo del tipo di interlacciamento per i frame di output. Non è così
cambia il frame di input, ma imposta solo la proprietà corrispondente, che influenza il modo in cui
frame viene trattato dai seguenti filtri (es. "fieldorder" o "yadif").

Il filtro accetta le seguenti opzioni:

modo
I valori disponibili sono:

auto
Mantieni la stessa proprietà del campo.

BFF Contrassegna il frame come primo campo in basso.

tff Contrassegna il frame come primo campo in alto.

prog
Contrassegna il fotogramma come progressivo.

showinfo
Mostra una riga contenente varie informazioni per ogni fotogramma video in ingresso. Il video in ingresso è
non modificato.

La riga mostrata contiene una sequenza di coppie chiave/valore del modulo chiave:APPREZZIAMO.

Nell'output vengono visualizzati i seguenti valori:

n Il numero (sequenziale) del frame di input, a partire da 0.

pts Il TimeStamp di presentazione del frame di input, espresso come un numero di base temporale
unità. L'unità di base dei tempi dipende dal pad di ingresso del filtro.

pts_time
Il TimeStamp di presentazione del frame di input, espresso come numero di secondi.

inviare La posizione del frame nel flusso di input, o -1 se questa informazione è
non disponibile e/o privo di significato (ad esempio in caso di video sintetico).

FMT Il nome del formato pixel.

sar Il rapporto di aspetto del campione del frame di input, espresso nella forma num/giorno.

s La dimensione del frame di input. Per la sintassi di questa opzione, controlla il "Video dimensione"
pagina in , il ffmpeg-utils Manuale.

i Il tipo di modalità interlacciata ("P" per "progressivo", "T" per primo campo, "B" per
prima il campo in basso).

è chiave
Questo è 1 se il fotogramma è un fotogramma chiave, 0 altrimenti.

Digitare
Il tipo di immagine del frame di input ("I" per un I-frame, "P" per un P-frame, "B" per un
B-frame, o "?" per un tipo sconosciuto). Fare riferimento anche alla documentazione del
enum "AVPictureType" e della funzione "av_get_picture_type_char" definita in
libavutil/avutil.h.

checksum
Il checksum Adler-32 (stampato in esadecimale) di tutti i piani del frame di input.

piano_checksum
Il checksum Adler-32 (stampato in esadecimale) di ciascun piano del frame di input,
espresso nella forma "[c0 c1 c2 c3]".

tavolozza dello spettacolo
Visualizza la tavolozza di 256 colori di ogni fotogramma. Questo filtro è rilevante solo per amico8 pixel
cornici di formato.

Accetta la seguente opzione:

s Imposta la dimensione della casella utilizzata per rappresentare una voce di colore della tavolozza. Il valore predefinito è 30 (per
un riquadro "30x30" pixel).

shuffleplane
Riordina e/o duplica i piani video.

Accetta i seguenti parametri:

map0
L'indice del piano di input da utilizzare come primo piano di output.

map1
L'indice del piano di input da utilizzare come secondo piano di output.

map2
L'indice del piano di input da utilizzare come terzo piano di output.

map3
L'indice del piano di input da utilizzare come quarto piano di output.

Il primo piano ha l'indice 0. L'impostazione predefinita è mantenere l'input invariato.

Scambia il secondo e il terzo piano dell'input:

ffmpeg -i INGRESSO -vf shuffleplanes=0:2:1:3 USCITA

statistiche del segnale
Valuta varie metriche visive che aiutano a determinare i problemi associati al
digitalizzazione di supporti video analogici.

Per impostazione predefinita, il filtro registrerà questi valori di metadati:

YMIN
Visualizza il valore Y minimo contenuto nel frame di input. Espresso nell'intervallo di
[0-255]

GIALLO
Visualizza il valore Y al percentile 10% all'interno del riquadro di input. Espresso in gamma
di [0-255].

YAVG
Visualizza il valore Y medio all'interno del riquadro di input. Espresso nell'intervallo [0-255].

YALTO
Visualizza il valore Y al percentile 90% all'interno del riquadro di input. Espresso in gamma
di [0-255].

YMAX
Visualizza il valore Y massimo contenuto nel riquadro di input. Espresso nell'intervallo di
[0-255]

UM
Visualizza il valore U minimo contenuto nel riquadro di input. Espresso nell'intervallo di
[0-255]

ULOW
Visualizza il valore U al percentile del 10% all'interno del riquadro di input. Espresso in gamma
di [0-255].

UAVG
Visualizza il valore U medio all'interno del riquadro di input. Espresso nell'intervallo [0-255].

ALTO
Visualizza il valore U al percentile del 90% all'interno del riquadro di input. Espresso in gamma
di [0-255].

UMAX
Visualizza il valore U massimo contenuto nel riquadro di input. Espresso nell'intervallo di
[0-255]

VMIN
Visualizza il valore V minimo contenuto nel frame di input. Espresso nell'intervallo di
[0-255]

VLOW
Visualizza il valore V al percentile 10% all'interno del frame di input. Espresso in gamma
di [0-255].

VAVG
Visualizza il valore V medio all'interno del riquadro di input. Espresso nell'intervallo [0-255].

V ALTO
Visualizza il valore V al percentile 90% all'interno del frame di input. Espresso in gamma
di [0-255].

VMAX
Visualizza il valore V massimo contenuto nel frame di input. Espresso nell'intervallo di
[0-255]

SATMIN
Visualizza il valore di saturazione minimo contenuto nel frame di input. Espresso in
intervallo di [0-~181.02].

SABATO
Visualizza il valore di saturazione al percentile 10% all'interno del riquadro di input. Espresso
nell'intervallo [0-~181.02].

SATVG
Visualizza il valore di saturazione medio all'interno del riquadro di input. Espresso nell'intervallo di
[0-~181.02].

SATHIGH
Visualizza il valore di saturazione al percentile 90% all'interno del riquadro di input. Espresso
nell'intervallo [0-~181.02].

SATMAX
Visualizza il valore di saturazione massimo contenuto nel frame di input. Espresso in
intervallo di [0-~181.02].

HUEMED
Visualizza il valore medio per la tonalità all'interno del riquadro di input. Espresso nell'intervallo di
[0-360]

HUEAVG
Visualizza il valore medio per la tonalità all'interno del riquadro di input. Espresso nell'intervallo di
[0-360]

YDIF
Visualizza la media della differenza del valore del campione tra tutti i valori del piano Y in
il frame corrente e i valori corrispondenti del frame di input precedente. Espresso in
intervallo di [0-255].

Udif
Visualizza la media della differenza del valore del campione tra tutti i valori del piano U in
il frame corrente e i valori corrispondenti del frame di input precedente. Espresso in
intervallo di [0-255].

VDIF
Visualizza la media della differenza del valore del campione tra tutti i valori del piano V in
il frame corrente e i valori corrispondenti del frame di input precedente. Espresso in
intervallo di [0-255].

Il filtro accetta le seguenti opzioni:

stat
su stat specificare una forma aggiuntiva di analisi dell'immagine. su emettere video con il
tipo specificato di pixel evidenziato.

Entrambe le opzioni accettano i seguenti valori:

tutti
identifica temporaneo valori anomali pixel. UN temporaneo valore anomalo è un pixel diverso dal
pixel adiacenti dello stesso campo. Esempi di valori anomali temporali includono il
risultati di interruzioni del video, intasamento della testa o problemi di tracciamento del nastro.

vrp
identifica verticale linea ripetizione. La ripetizione della linea verticale include righe simili
di pixel all'interno di un frame. Nel video digitale nato la ripetizione della linea verticale è
comune, ma questo modello è raro nei video digitalizzati da una sorgente analogica.
Quando si verifica in video che risulta dalla digitalizzazione di una sorgente analogica,
può indicare l'occultamento da un compensatore di abbandono.

portato
Identifica i pixel che non rientrano nell'intervallo di trasmissione legale.

colore, c
Imposta il colore di evidenziazione per il su opzione. Il colore predefinito è il giallo.

Esempi

· Dati di output di varie metriche video:

ffprobe -f lavfi movie=example.mov,signalstats="stat=tout+vrep+brng" -show_frames

· Emettere dati specifici sui valori minimo e massimo del piano Y per fotogramma:

ffprobe -f lavfi movie=example.mov,signalstats -show_entries frame_tags=lavfi.signalstats.YMAX,lavfi.signalstats.YMIN

· Riprodurre video evidenziando in rosso i pixel che si trovano al di fuori dell'intervallo di trasmissione.

ffplay example.mov -vf signalstats="out=brng:color=red"

· Riproduzione di video con metadati di signalstats tracciati sul fotogramma.

ffplay example.mov -vf signalstats=stat=brng+vrep+tout,drawtext=fontfile=FreeSerif.ttf:textfile=signalstat_drawtext.txt

I contenuti di signalstat_drawtext.txt utilizzati nel comando sono:

tempo %{pts:hms}
Sì (%{metadata:lavfi.signalstats.YMIN}-%{metadata:lavfi.signalstats.YMAX})
U (%{metadata:lavfi.signalstats.UMIN}-%{metadata:lavfi.signalstats.UMAX})
V (%{metadata:lavfi.signalstats.VMIN}-%{metadata:lavfi.signalstats.VMAX})
saturazione massima: %{metadata:lavfi.signalstats.SATMAX}

sfocatura
Sfoca il video in ingresso senza alterare i contorni.

Accetta le seguenti opzioni:

raggio_luminoso, lr
Imposta il raggio di luminanza. Il valore dell'opzione deve essere un numero float nell'intervallo [0.1,5.0]
che specifica la varianza del filtro gaussiano usato per sfocare l'immagine (piùlenta se
più grandi). Il valore predefinito è 1.0.

forza_luminosa, ls
Imposta l'intensità della luminanza. Il valore dell'opzione deve essere un numero float nell'intervallo [-1.0,1.0]
che configura la sfocatura. Un valore incluso in [0.0,1.0] sfoca l'immagine
mentre un valore incluso in [-1.0,0.0] renderà più nitida l'immagine. Il valore predefinito è 1.0.

luma_soglia, lt
Imposta la soglia di luminanza utilizzata come coefficiente per determinare se un pixel deve essere
sfocato o meno. Il valore dell'opzione deve essere un numero intero compreso nell'intervallo [-30,30]. Un valore di
0 filtrerà tutta l'immagine, un valore incluso in [0,30] filtrerà le aree piatte e a
il valore incluso in [-30,0] filtrerà i bordi. Il valore predefinito è 0.

raggio_cromatico, cr
Imposta il raggio di crominanza. Il valore dell'opzione deve essere un numero float nell'intervallo [0.1,5.0]
che specifica la varianza del filtro gaussiano usato per sfocare l'immagine (piùlenta se
più grandi). Il valore predefinito è 1.0.

forza_cromatica, cs
Imposta l'intensità della crominanza. Il valore dell'opzione deve essere un numero float nell'intervallo
[-1.0,1.0] che configura la sfocatura. Un valore incluso in [0.0,1.0] offuscherebbe il
image mentre un valore incluso in [-1.0,0.0] renderà più nitida l'immagine. Il valore predefinito è
1.0

soglia_cromatica, ct
Imposta la soglia di crominanza utilizzata come coefficiente per determinare se un pixel deve essere
sfocato o meno. Il valore dell'opzione deve essere un numero intero compreso nell'intervallo [-30,30]. Un valore di
0 filtrerà tutta l'immagine, un valore incluso in [0,30] filtrerà le aree piatte e a
il valore incluso in [-30,0] filtrerà i bordi. Il valore predefinito è 0.

Se un'opzione chroma non è impostata in modo esplicito, viene impostato il valore luma corrispondente.

sim
Ottieni il SSIM (Struttural SImilarity Metric) tra due video di input.

Questo filtro prende in ingresso due video in ingresso, il primo ingresso è considerato il "principale"
source e viene passato invariato all'output. Il secondo ingresso viene utilizzato come "riferimento"
video per il calcolo della SSIM.

Entrambi gli ingressi video devono avere la stessa risoluzione e lo stesso formato pixel affinché questo filtro funzioni
correttamente. Inoltre presuppone che entrambi gli ingressi abbiano lo stesso numero di frame, che sono
confrontati uno per uno.

Il filtro memorizza la SSIM calcolata di ogni frame.

Segue la descrizione dei parametri accettati.

file_stats, f
Se specificato, il filtro utilizzerà il file denominato per salvare l'SSIM di ogni individuo
telaio.

Il file stampato se file_stats è selezionato, contiene una sequenza di coppie chiave/valore di
modulo chiave:APPREZZIAMO per ogni coppia di frame confrontati.

Segue una descrizione di ciascun parametro mostrato:

n numero sequenziale del frame di input, a partire da 1

Y, U, V, R, G, B
SSIM dei frame confrontati per il componente specificato dal suffisso.

Tutti SSIM dei frame confrontati per l'intero frame.

dB Come sopra ma in rappresentazione in dB.

Per esempio:

movie=ref_movie.mpg, setpts=PTS-STARTPTS [principale];
[main][ref] ssim="stats_file=stats.log" [out]

In questo esempio il file di input in elaborazione viene confrontato con il file di riferimento
ref_film.mpg. La SSIM di ogni singolo frame è memorizzata in statistiche.log.

Un altro esempio con psnr e ssim contemporaneamente:

ffmpeg -i main.mpg -i ref.mpg -lavfi "ssim;[0:v][1:v]psnr" -f null -

stereo3d
Conversione tra diversi formati di immagine stereoscopica.

I filtri accettano le seguenti opzioni:

in Imposta il formato immagine stereoscopica dell'input.

I valori disponibili per i formati immagine di input sono:

sbsl
parallelamente fianco a fianco (occhio sinistro sinistro, occhio destro destro)

sbsr
fianco a fianco crosseye (occhio destro sinistro, occhio sinistro destro)

sbs2l
affiancati paralleli con risoluzione a metà larghezza (occhio sinistro sinistro, occhio destro destro)

sbs2r
crosseye affiancato con risoluzione a metà larghezza (occhio destro sinistro, occhio sinistro destro)

abl sopra-sotto (occhio sinistro sopra, occhio destro sotto)

abr sopra-sotto (occhio destro sopra, occhio sinistro sotto)

ab2l
sopra-sotto con risoluzione a metà altezza (occhio sinistro sopra, occhio destro sotto)

ab2r
sopra-sotto con risoluzione a metà altezza (occhio destro sopra, occhio sinistro sotto)

al fotogrammi alternati (prima l'occhio sinistro, secondo l'occhio destro)

ar fotogrammi alternati (prima l'occhio destro, secondo l'occhio sinistro)

Il valore predefinito è sbsl.

su Imposta il formato dell'immagine stereoscopica di output.

I valori disponibili per i formati immagine di output sono tutti i formati di input, nonché:

arg
anaglifo rosso/blu grigio (filtro rosso sull'occhio sinistro, filtro blu sull'occhio destro)

argomento
anaglifo rosso/verde grigio (filtro rosso sull'occhio sinistro, filtro verde sull'occhio destro)

arco
anaglifo rosso/ciano grigio (filtro rosso sull'occhio sinistro, filtro ciano sull'occhio destro)

arco
anaglifo rosso/ciano mezzo colorato (filtro rosso sull'occhio sinistro, filtro ciano sull'occhio destro)

ARCC
colore anaglifo rosso/ciano (filtro rosso sull'occhio sinistro, filtro ciano sull'occhio destro)

arco
colore anaglifo rosso/ciano ottimizzato con la proiezione dei minimi quadrati di dubois (rosso
filtro sull'occhio sinistro, filtro ciano sull'occhio destro)

agg
anaglifo verde/magenta grigio (filtro verde sull'occhio sinistro, filtro magenta sulla destra
occhio)

agh
anaglifo verde/magenta mezzo colorato (filtro verde sull'occhio sinistro, filtro magenta attivo
occhio destro)

agmc
anaglifo verde/magenta colorato (filtro verde sull'occhio sinistro, filtro magenta sulla destra
occhio)

agg
colore anaglifo verde/magenta ottimizzato con la proiezione dei minimi quadrati di dubois
(filtro verde sull'occhio sinistro, filtro magenta sull'occhio destro)

aybg
anaglifo giallo/grigio blu (filtro giallo sull'occhio sinistro, filtro blu sull'occhio destro)

aybh
anaglifo giallo/blu mezzo colorato (filtro giallo sull'occhio sinistro, filtro blu sull'occhio destro
occhio)

aybc
anaglifo giallo/blu colorato (filtro giallo sull'occhio sinistro, filtro blu sull'occhio destro)

aybd
colore anaglifo giallo/blu ottimizzato con la proiezione dei minimi quadrati di dubois
(filtro giallo sull'occhio sinistro, filtro blu sull'occhio destro)

IRL righe intercalate (l'occhio sinistro ha la riga in alto, l'occhio destro inizia sulla riga successiva)

irr righe intercalate (l'occhio destro ha la riga in alto, l'occhio sinistro inizia sulla riga successiva)

ml uscita mono (solo occhio sinistro)

mr uscita mono (solo occhio destro)

Il valore predefinito è arco.

Esempi

· Converti video in ingresso affiancato parallelamente a dubois giallo/blu anaglifo:

stereo3d=sbsl:aybd

· Converti video in ingresso dall'alto in basso (occhio sinistro in alto, occhio destro in basso) a fianco a fianco
occhio incrociato.

stereo3d=abl:sbsr

spp
Applicare un semplice filtro di post-elaborazione che comprime e decomprime l'immagine a diversi
(o - nel caso di qualità livello 6 - tutti) cambia e fa la media dei risultati.

Il filtro accetta le seguenti opzioni:

qualità
Imposta la qualità. Questa opzione definisce il numero di livelli per la media. Accetta un
intero nell'intervallo 0-6. Se impostato a 0, il filtro non avrà alcun effetto. Un valore di 6
significa la qualità superiore. Ad ogni incremento di quel valore la velocità diminuisce di un fattore
di circa 2. Il valore predefinito è 3.

qp Forza un parametro di quantizzazione costante. Se non è impostato, il filtro utilizzerà il QP da
il flusso video (se disponibile).

modo
Imposta la modalità di soglia. Le modalità disponibili sono:

difficile
Imposta soglia rigida (impostazione predefinita).

morbido
Imposta soglia morbida (effetto di attenuazione del suono migliore, ma probabilmente più sfocato).

usa_bframe_qp
Abilita l'uso del QP dai B-Frame se impostato su 1. L'uso di questa opzione potrebbe causare
sfarfallio poiché i B-Frame hanno spesso QP più grandi. Il valore predefinito è 0 (non abilitato).

sottotitoli
Disegna i sottotitoli sopra il video di input usando la libreria libass.

Per abilitare la compilazione di questo filtro è necessario configurare FFmpeg con "--enable-libass".
Questo filtro richiede anche una build con libavcodec e libavformat per convertire il passato
file di sottotitoli in formato sottotitoli ASS (Advanced Substation Alpha).

Il filtro accetta le seguenti opzioni:

nome del file, f
Imposta il nome del file dei sottotitoli da leggere. Deve essere specificato.

Misura originale
Specificare la dimensione del video originale, il video per il quale è stato composto il file ASS.
Per la sintassi di questa opzione, controlla il "Video dimensione" pagina in , il ffmpeg-utils
Manuale. A causa di un errore di progettazione nell'aritmetica delle proporzioni ASS, questo è necessario per
ridimensiona correttamente i caratteri se le proporzioni sono state modificate.

fontdir
Imposta un percorso di directory contenente i caratteri che possono essere utilizzati dal filtro. Questi caratteri
verrà utilizzato in aggiunta a qualsiasi cosa utilizzi il provider di font.

Charenc
Imposta la codifica dei caratteri di input dei sottotitoli. solo filtro "sottotitoli". Utile solo in caso contrario
UTF-8.

indice_flusso, si
Imposta l'indice del flusso dei sottotitoli. solo filtro "sottotitoli".

forza_stile
Sostituisci lo stile predefinito o i parametri delle informazioni sullo script dei sottotitoli. Accetta una stringa
contenente coppie in formato ASS "KEY=VALUE" separate da ",".

Se la prima chiave non è specificata, si presume che il primo valore specifichi il
Nome del file.

Ad esempio, per rendere il file sub.srt sopra il video in ingresso, usa il comando:

sottotitoli=sub.srt

che equivale a:

sottotitoli=nomefile=sub.srt

Per eseguire il rendering del flusso di sottotitoli predefinito da file video.mkv, Usare:

sottotitoli=video.mkv

Per eseguire il rendering del secondo flusso di sottotitoli da quel file, usa:

sottotitoli=video.mkv:si=1

Per fare in modo che i sottotitoli vengano trasmessi in streaming da sub.srt appaiono in verde trasparente "DejaVu Serif", usa:

subtitles=sub.srt:force_style='FontName=DejaVu Serif,PrimaryColour=&HAA00FF00'

super2xsai
Ridimensiona l'input di 2x e uniforma utilizzando la pixel art Super2xSaI (Scale and Interpolate)
algoritmo di scala.

Utile per ingrandire le immagini pixel art senza ridurre la nitidezza.

scambiare
Scambia l'aereo U e V.

telecine
Applicare il processo di telecinema al video.

Questo filtro accetta le seguenti opzioni:

primo_campo
superiore, t
prima il campo in alto

fondo, b
campo in basso prima Il valore predefinito è "in alto".

modello
Una stringa di numeri che rappresenta il modello di pulldown che desideri applicare. Il predefinito
il valore è 23.

Alcuni modelli tipici:

Uscita NTSC (30i):
27.5:32222: XNUMX
24p: 23 (classico)
24p: 2332 (preferito)
20:33: XNUMX
18:334: XNUMX
16:3444: XNUMX

Uscita PAL (25i):
27.5:12222: XNUMX
24p: 222222222223 ("Pulsante Euro")
16.67:33: XNUMX
16:33333334: XNUMX

miniature
Seleziona il fotogramma più rappresentativo in una data sequenza di fotogrammi consecutivi.

Il filtro accetta le seguenti opzioni:

n Imposta la dimensione batch dei frame da analizzare; in una serie di n frame, il filtro ne sceglierà uno
di loro, e poi gestire il prossimo lotto di n fotogrammi fino alla fine. Il valore predefinito è 100.

Poiché il filtro tiene traccia dell'intera sequenza di fotogrammi, un maggiore n il valore risulterà in
un maggiore utilizzo della memoria, quindi un valore elevato non è consigliato.

Esempi

· Estrai un'immagine ogni 50 fotogrammi:

miniatura = 50

· Esempio completo di creazione di miniature con ffmpeg:

ffmpeg -i in.avi -vf miniatura,scale=300:200 -frames:v 1 out.png

piastrella
Affianca più fotogrammi successivi insieme.

Il filtro accetta le seguenti opzioni:

disposizione
Imposta la dimensione della griglia (cioè il numero di righe e colonne). Per la sintassi di questo
opzione, seleziona l'opzione "Video dimensione" pagina in , il ffmpeg-utils Manuale.

nb_frames
Imposta il numero massimo di fotogrammi di cui eseguire il rendering nell'area data. Deve essere inferiore a o
uguale a wxh. Il valore predefinito è 0, il che significa che verrà utilizzata tutta l'area.

margine
Imposta il margine del bordo esterno in pixel.

imbottitura
Imposta lo spessore del bordo interno (cioè il numero di pixel tra i fotogrammi). Per più
opzioni avanzate di riempimento (come avere valori diversi per i bordi), fare riferimento al
filtro video pad.

colore
Specificare il colore dell'area non utilizzata. Per la sintassi di questa opzione, seleziona "Colore"
sezione nel manuale ffmpeg-utils. Il valore predefinito di colore è nero".

Esempi

· Produci tessere PNG 8x8 di tutti i fotogrammi chiave (-salta_frame nokey) in un film:

ffmpeg -skip_frame nokey -i file.avi -vf 'scale=128:72,tile=8x8' -an -vsync 0 keyframes%03d.png

I -vsync 0 è necessario prevenire ffmpeg dalla duplicazione di ciascun frame di output a
adattarsi al frame rate originariamente rilevato.

· Visualizza 5 immagini in un'area di fotogrammi "3x2", con 7 pixel tra di loro e 2
pixel del margine iniziale, utilizzando opzioni miste flat e denominate:

tile=3x2:nb_frames=5:padding=7:margin=2

tintelacci
Eseguire vari tipi di interlacciamento del campo temporale.

I frame vengono contati a partire da 1, quindi il primo frame di input è considerato dispari.

Il filtro accetta le seguenti opzioni:

modo
Specificare la modalità dell'interlacciamento. Questa opzione può anche essere specificata come valore
da solo. Vedi sotto per un elenco di valori per questa opzione.

I valori disponibili sono:

unire, 0
Sposta i fotogrammi dispari nel campo superiore, anche nel campo inferiore, generando a
frame a doppia altezza a metà frame rate.

------> tempo
Ingresso:
Fotogramma 1 Fotogramma 2 Fotogramma 3 Fotogramma 4

11111 22222 33333 44444
11111 22222 33333 44444
11111 22222 33333 44444
11111 22222 33333 44444

Produzione:
11111/33333
22222/44444
11111/33333
22222/44444
11111/33333
22222/44444
11111/33333
22222/44444

drop_dispari, 1
Emette solo frame pari, i frame dispari vengono eliminati, generando un frame con invariato
altezza a metà frame rate.

------> tempo
Ingresso:
Fotogramma 1 Fotogramma 2 Fotogramma 3 Fotogramma 4

11111 22222 33333 44444
11111 22222 33333 44444
11111 22222 33333 44444
11111 22222 33333 44444

Produzione:
22222/44444
22222/44444
22222/44444
22222/44444

drop_even, 2
Emette solo frame dispari, i frame pari vengono eliminati, generando un frame con invariato
altezza a metà frame rate.

------> tempo
Ingresso:
Fotogramma 1 Fotogramma 2 Fotogramma 3 Fotogramma 4

11111 22222 33333 44444
11111 22222 33333 44444
11111 22222 33333 44444
11111 22222 33333 44444

Produzione:
11111/33333
11111/33333
11111/33333
11111/33333

pad, 3
Espandi ogni fotogramma a tutta altezza, ma riempi le linee alternate con il nero, generando a
frame con altezza doppia allo stesso frame rate di input.

------> tempo
Ingresso:
Fotogramma 1 Fotogramma 2 Fotogramma 3 Fotogramma 4

11111 22222 33333 44444
11111 22222 33333 44444
11111 22222 33333 44444
11111 22222 33333 44444

Produzione:
11111 ..... 33333 .....
.....22222.....44444
11111 ..... 33333 .....
.....22222.....44444
11111 ..... 33333 .....
.....22222.....44444
11111 ..... 33333 .....
.....22222.....44444

interleave_top, 4
Intercalare il campo superiore da fotogrammi dispari con il campo inferiore da fotogrammi pari,
generando un frame con altezza invariata a metà frame rate.

------> tempo
Ingresso:
Fotogramma 1 Fotogramma 2 Fotogramma 3 Fotogramma 4

11111<- 22222 33333<- 44444
11111 22222<- 33333 44444<-
11111<- 22222 33333<- 44444
11111 22222<- 33333 44444<-

Produzione:
11111/33333
22222/44444
11111/33333
22222/44444

interleave_bottom, 5
Intercalare il campo inferiore da fotogrammi dispari con il campo superiore da fotogrammi pari,
generando un frame con altezza invariata a metà frame rate.

------> tempo
Ingresso:
Fotogramma 1 Fotogramma 2 Fotogramma 3 Fotogramma 4

11111 22222<- 33333 44444<-
11111<- 22222 33333<- 44444
11111 22222<- 33333 44444<-
11111<- 22222 33333<- 44444

Produzione:
22222/44444
11111/33333
22222/44444
11111/33333

interlacciato2, 6
Doppio frame rate con altezza invariata. I frame vengono inseriti ciascuno contenente il
secondo campo temporale dal frame di input precedente e il primo campo temporale
dal frame di input successivo. Questa modalità si basa sul flag top_field_first. Utile
per display video interlacciati senza sincronizzazione sul campo.

------> tempo
Ingresso:
Fotogramma 1 Fotogramma 2 Fotogramma 3 Fotogramma 4

11111 22222 33333 44444
11111 22222 33333 44444
11111 22222 33333 44444
11111 22222 33333 44444

Produzione:
11111 22222 22222 33333 33333 44444 44444
11111 11111 22222 22222 33333 33333 44444
11111 22222 22222 33333 33333 44444 44444
11111 11111 22222 22222 33333 33333 44444

I valori numerici sono deprecati ma sono accettati per motivi di compatibilità con le versioni precedenti.

La modalità predefinita è "unione".

bandiere
Specificare i flag che influenzano il processo di filtro.

Valore disponibile per bandiere è:

filtro_pass_basso, vlfp
Abilita il filtro passa basso verticale nel filtro. Il filtraggio passa-basso verticale è
richiesto quando si crea una destinazione interlacciata da una sorgente progressiva che
contiene dettagli verticali ad alta frequenza. Il filtraggio ridurrà l'interlacciamento "twitter"
e motivi Moiré.

Il filtro passa-basso verticale può essere abilitato solo per modo interleave_top ed
interleave_bottom.

trasporre
Trasponi le righe con le colonne nel video di input e facoltativamente capovolgilo.

Accetta i seguenti parametri:

dir Specificare la direzione di trasposizione.

Può assumere i seguenti valori:

0, 4, capovolgimento dell'orologio
Ruota di 90 gradi in senso antiorario e capovolgi verticalmente (impostazione predefinita), ovvero:

LR Ll
. . -> . .
lr Rr

1, 5, orologio
Ruota di 90 gradi in senso orario, ovvero:

LR lL
. . -> . .
lr rR

2, 6, orologio
Ruota di 90 gradi in senso antiorario, ovvero:

LR Rr
. . -> . .
lr Ll

3, 7, orologio_flip
Ruota di 90 gradi in senso orario e capovolgi verticalmente, ovvero:

LR rR
. . -> . .
lr lL

Per valori compresi tra 4-7, la trasposizione viene eseguita solo se la geometria video in ingresso è
ritratto e non paesaggio. Questi valori sono deprecati, l'opzione "passthrough"
dovrebbe essere usato invece.

I valori numerici sono deprecati e dovrebbero essere eliminati a favore delle costanti simboliche.

passthrough
Non applicare la trasposizione se la geometria di input corrisponde a quella specificata dal
valore specificato. Accetta i seguenti valori:

nessuna
Applicare sempre la trasposizione.

ritratto
Mantieni la geometria verticale (quando altezza >= larghezza).

paesaggio
Conserva la geometria del paesaggio (quando larghezza >= altezza).

Il valore predefinito è "nessuno".

Ad esempio per ruotare di 90 gradi in senso orario e preservare il layout verticale:

transpose=dir=1:passthrough=ritratto

Il comando sopra può anche essere specificato come:

trasposizione=1:ritratto

tagliare
Tagliare l'input in modo che l'output contenga una sottoparte continua dell'input.

Accetta i seguenti parametri:

inizia a
Specificare l'ora di inizio della sezione conservata, ovvero il frame con il timestamp
inizia a sarà il primo frame nell'output.

fine Specificare l'ora del primo fotogramma che verrà eliminato, ovvero il fotogramma immediatamente
che precede quello con il timestamp fine sarà l'ultimo frame nell'output.

start_pts
Questo è lo stesso di inizia a, tranne che questa opzione imposta il timestamp di inizio in timebase
unità invece dei secondi.

end_pts
Questo è lo stesso di fine, tranne che questa opzione imposta il timestamp di fine in unità timebase
invece dei secondi.

durata
La durata massima dell'uscita in secondi.

start_frame
Il numero del primo frame che deve essere passato all'output.

end_frame
Il numero del primo fotogramma da eliminare.

inizia a, finee durata sono espressi come specifiche di durata temporale; vedere , il Ora
durata pagina in , il ffmpeg-utils(1) Manuale per la sintassi accettata.

Nota che i primi due set di opzioni di inizio/fine e il durata opzione guarda il
frame timestamp, mentre le varianti _frame contano semplicemente i frame che passano attraverso il
filtro. Si noti inoltre che questo filtro non modifica i timestamp. Se desideri il
i timestamp di output per iniziare da zero, inserire un filtro setpts dopo il filtro trim.

Se sono impostate più opzioni di inizio o fine, questo filtro cerca di essere avido e di mantenere tutte le
frame che corrispondono ad almeno uno dei vincoli specificati. Per mantenere solo la parte che
corrisponde a tutti i vincoli contemporaneamente, concatena più filtri di ritaglio.

Le impostazioni predefinite sono tali che tutto l'input viene mantenuto. Quindi è possibile impostare ad esempio solo il
valori finali per mantenere tutto prima del tempo specificato.

Consigli d'uso:

· Elimina tutto tranne il secondo minuto di input:

ffmpeg -i INPUT -vf trim=60:120

· Conserva solo il primo secondo:

ffmpeg -i INPUT -vf trim=durata=1

di contrasto
Contrasta o sfoca il video in ingresso.

Accetta i seguenti parametri:

luma_msize_x, lx
Imposta la dimensione orizzontale della matrice luma. Deve essere un numero intero dispari compreso tra 3 e 63. Il
il valore predefinito è 5.

luma_msize_y, ly
Imposta la dimensione verticale della matrice luma. Deve essere un numero intero dispari compreso tra 3 e 63. Il
il valore predefinito è 5.

quantità_luminosa, la
Imposta l'intensità dell'effetto luminanza. Deve essere un numero in virgola mobile, valori ragionevoli
giace tra -1.5 e 1.5.

I valori negativi offuscheranno il video in ingresso, mentre i valori positivi lo renderanno più nitido, a
il valore zero disabiliterà l'effetto.

Il valore predefinito è 1.0.

chroma_msize_x, cx
Imposta la dimensione orizzontale della matrice di crominanza. Deve essere un numero intero dispari compreso tra 3 e 63. Il
il valore predefinito è 5.

chroma_msize_y, cy
Imposta la dimensione verticale della matrice di crominanza. Deve essere un numero intero dispari compreso tra 3 e 63. Il
il valore predefinito è 5.

importo_croma, ca
Imposta l'intensità dell'effetto crominanza. Deve essere un numero in virgola mobile, valori ragionevoli
giace tra -1.5 e 1.5.

I valori negativi offuscheranno il video in ingresso, mentre i valori positivi lo renderanno più nitido, a
il valore zero disabiliterà l'effetto.

Il valore predefinito è 0.0.

aperto
Se impostato su 1, specificare utilizzando le funzionalità OpenCL, disponibile solo se FFmpeg era
configurato con "--enable-opencl". Il valore predefinito è 0.

Tutti i parametri sono facoltativi e per impostazione predefinita sono l'equivalente della stringa '5:5:1.0:5:5:0.0'.

Esempi

· Applicare un forte effetto luma sharpen:

unsharp=lumina_msize_x=7:lumina_msize_y=7:lumina_amount=2.5

· Applicare una forte sfocatura di entrambi i parametri di luminanza e crominanza:

unsharp=7:7:-2:7:7:-2

uspp
Applica un filtro di post-elaborazione ultra lento/semplice che comprime e decomprime l'immagine
a diversi (o - nel caso di qualità livello 8 - tutti) cambia e fa la media dei risultati.

Il modo in cui questo differisce dal comportamento di spp è che uspp effettivamente codifica e decodifica ciascuno
caso con libavcodec Snow, mentre spp utilizza un intra semplificato solo 8x8 DCT simile a
MJPEG.

Il filtro accetta le seguenti opzioni:

qualità
Imposta la qualità. Questa opzione definisce il numero di livelli per la media. Accetta un
intero nell'intervallo 0-8. Se impostato a 0, il filtro non avrà alcun effetto. Un valore di 8
significa la qualità superiore. Ad ogni incremento di quel valore la velocità diminuisce di un fattore
di circa 2. Il valore predefinito è 3.

qp Forza un parametro di quantizzazione costante. Se non è impostato, il filtro utilizzerà il QP da
il flusso video (se disponibile).

vectorscope
Visualizza i valori dei componenti di 2 colori nel grafico bidimensionale (chiamato a
vettorscopio).

Questo filtro accetta le seguenti opzioni:

modalità, m
Imposta la modalità vettorscopio.

Accetta i seguenti valori:

grigio
I valori di grigio vengono visualizzati sul grafico, una maggiore luminosità significa che più pixel hanno lo stesso
valore del colore del componente sulla posizione nel grafico. Questa è la modalità di default.

colore
I valori in grigio sono visualizzati sul grafico. Valori dei pixel circostanti che non lo sono
presenti nel fotogramma video sono disegnati in un gradiente di 2 componenti di colore che sono impostati
per opzione "x" e "y".

color2
I valori effettivi dei componenti del colore presenti nel fotogramma video vengono visualizzati sul grafico.

color3
Simile a color2 ma frequenza maggiore degli stessi valori "x" e "y" sul grafico
aumenta il valore di un altro componente di colore, che è la luminanza per valori predefiniti
di "x" e "y".

color4
I colori effettivi presenti nel fotogramma video vengono visualizzati sul grafico. Se due diversi
i colori si mappano nella stessa posizione sul grafico, quindi colorano con un valore più alto del componente no
presente nel grafico viene selezionato.

x Imposta quale componente del colore sarà rappresentato sull'asse X. Il valore predefinito è 1.

y Imposta quale componente del colore sarà rappresentato sull'asse Y. Il valore predefinito è 2.

intensità, i
Imposta l'intensità, utilizzata dalle modalità: grigio, colore e colore3 per aumentare la luminosità di
componente di colore che rappresenta la frequenza della posizione (X, Y) nel grafico.

Busta, e
nessuna
Nessuna busta, questa è l'impostazione predefinita.

immediato
Inviluppo istantaneo, anche il singolo pixel più scuro sarà chiaramente evidenziato.

picco
Mantieni i valori massimi e minimi presentati nel grafico nel tempo. In questo modo puoi
individuare ancora valori fuori intervallo senza guardare costantemente il vettorscopio.

picco+istante
Picco e inviluppo istantaneo combinati insieme.

vidstabdetect
Analizza la stabilizzazione/deshaking del video. Esegui il passaggio 1 di 2, vedi vidstabtransform per passare
2.

Questo filtro genera un file con le relative informazioni di traslazione e trasformazione di rotazione
sui fotogrammi successivi, che viene poi utilizzato dal vidstabtransform filtro.

Per abilitare la compilazione di questo filtro è necessario configurare FFmpeg con
"--enable-libvidstab".

Questo filtro accetta le seguenti opzioni:

colpevole
Imposta il percorso del file utilizzato per scrivere le informazioni sulle trasformazioni. Il valore predefinito è
trasforma.trf.

tremore
Imposta quanto è tremolante il video e quanto è veloce la videocamera. Accetta un numero intero in
intervallo 1-10, un valore di 1 significa poco tremore, un valore di 10 significa un forte tremolio.
Il valore predefinito è 5.

precisione
Imposta la precisione del processo di rilevamento. Deve essere un valore nell'intervallo 1-15. UN
il valore 1 indica una precisione bassa, un valore 15 indica una precisione elevata. Il valore predefinito è 15.

dimensione del passo
Imposta la dimensione del processo di ricerca. La regione intorno al minimo viene scansionata con 1 pixel
risoluzione. Il valore predefinito è 6.

contrasto minimo
Imposta il contrasto minimo. Al di sotto di questo valore viene scartato un campo di misurazione locale. Deve essere
un valore in virgola mobile nell'intervallo 0-1. Il valore predefinito è 0.3.

treppiedi
Imposta il numero del fotogramma di riferimento per la modalità treppiede.

Se abilitato, il movimento dei frame viene confrontato con un frame di riferimento nel filtro
flusso, identificato dal numero specificato. L'idea è di compensare tutti i movimenti in
una scena più o meno statica e mantenere la visuale della telecamera assolutamente ferma.

Se impostato a 0, è disabilitato. I frame vengono contati a partire da 1.

mostrare attraverso le sue creazioni
Mostra i campi e le trasformazioni nei fotogrammi risultanti. Accetta un numero intero nell'intervallo
0-2. Il valore predefinito è 0, che disabilita qualsiasi visualizzazione.

Esempi

· Usa valori predefiniti:

vidstabdetect

· Analizza il film fortemente traballante e metti i risultati in un file mytransforms.trf:

vidstabdetect=shakiness=10:accuracy=15:result="mytransforms.trf"

· Visualizza il risultato delle trasformazioni interne nel video risultante:

vidstabdetect=mostra=1

· Analizzare un video con oscillazioni medie utilizzando ffmpeg:

ffmpeg -i input -vf vidstabdetect=tremore=5:mostra=1 dummy.avi

vidstabtransform
Stabilizzazione/deshaking video: passa 2 di 2, vedi vidstabdetect per il passaggio 1.

Leggere un file con le informazioni di trasformazione per ogni fotogramma e applicarle/compensarle. Insieme
con la vidstabdetect filtro questo può essere usato per deshake video. Guarda anche
<http://public.hronopik.de/vid.stab>. È importante utilizzare anche il di contrasto filtra, vedi
qua sotto.

Per abilitare la compilazione di questo filtro è necessario configurare FFmpeg con
"--enable-libvidstab".

Opzioni

ingresso
Imposta il percorso del file utilizzato per leggere le trasformazioni. Il valore predefinito è trasforma.trf.

lisciatura
Imposta il numero di fotogrammi (valore*2 + 1) utilizzati per il filtraggio passa basso della telecamera
movimenti. Il valore predefinito è 10.

Ad esempio un numero di 10 significa che vengono utilizzati 21 frame (10 nel passato e 10 nel
future) per uniformare il movimento nel video. Un valore maggiore porta a un video più fluido,
ma limita l'accelerazione della telecamera (movimenti pan/tilt). 0 è un caso speciale
dove viene simulata una telecamera statica.

optalgo
Impostare l'algoritmo di ottimizzazione del percorso della telecamera.

I valori accettati sono:

gauss
filtro passa-basso del kernel gaussiano sul movimento della fotocamera (predefinito)

avg media sulle trasformazioni

spostamento massimo
Imposta il numero massimo di pixel per tradurre i fotogrammi. Il valore predefinito è -1, che significa no
limite.

angolo massimo
Imposta l'angolo massimo in radianti (gradi*PI/180) per ruotare i fotogrammi. Il valore predefinito è -1,
significa nessun limite.

raccolto
Specificare come trattare i bordi che potrebbero essere visibili a causa della compensazione del movimento.

I valori disponibili sono:

mantenere
mantieni le informazioni sull'immagine dal fotogramma precedente (impostazione predefinita)

Nero
riempire il bordo nero

invertire
Inverti trasformazioni se impostato su 1. Il valore predefinito è 0.

parente
Considera le trasformazioni relative al frame precedente se impostato su 1, assoluto se impostato su 0.
Il valore predefinito è 0.

zoom
Imposta la percentuale per lo zoom. Un valore positivo si tradurrà in un effetto di ingrandimento, un negativo
valore in un effetto di ingrandimento. Il valore predefinito è 0 (nessun zoom).

zoom opt
Imposta lo zoom ottimale per evitare i bordi.

I valori accettati sono:

0 disabile

1 viene determinato il valore ottimale dello zoom statico (solo movimenti molto forti porteranno a
bordi visibili) (predefinito)

2 viene determinato il valore ottimale dello zoom adattivo (nessun bordo sarà visibile), vedere
velocità dello zoom

Si noti che il valore dato allo zoom viene aggiunto a quello calcolato qui.

velocità dello zoom
Imposta la percentuale per ingrandire al massimo ogni fotogramma (abilitato quando zoom opt è impostato su 2). L'intervallo è
da 0 a 5, il valore predefinito è 0.25.

Interpol
Specificare il tipo di interpolazione.

I valori disponibili sono:

no nessuna interpolazione

lineare
lineare solo orizzontale

bilineare
lineare in entrambe le direzioni (predefinito)

bicubica
cubico in entrambe le direzioni (lento)

treppiedi
Abilita la modalità treppiede virtuale se impostato su 1, che equivale a
"relativo=0:levigante=0". Il valore predefinito è 0.

Usa anche l'opzione "treppiede" di vidstabdetect.

mettere a punto
Aumenta la verbosità del registro se impostato su 1. Vengono scritti anche i movimenti globali rilevati
il file temporaneo global_motions.trf. Il valore predefinito è 0.

Esempi

· Utilizzo ffmpeg per una stabilizzazione tipica con valori di default:

ffmpeg -i inp.mpeg -vf vidstabtransform,unsharp=5:5:0.8:3:3:0.4 inp_stabilized.mpeg

Notare l'uso del di contrasto filtro che è sempre consigliato.

· Ingrandisci un po' di più e carica i dati di trasformazione da un dato file:

vidstabtransform=zoom=5:input="mytransforms.trf"

· Migliora ulteriormente il video:

vidstabtransform = levigante = 30

capovolgimento
Capovolgere verticalmente il video in ingresso.

Ad esempio, per capovolgere verticalmente un video con ffmpeg:

ffmpeg -i in.avi -vf "vflip" out.avi

vignette
Crea o inverti un effetto di vignettatura naturale.

Il filtro accetta le seguenti opzioni:

angolo, a
Imposta l'espressione dell'angolo dell'obiettivo su un numero di radianti.

Il valore viene ritagliato nell'intervallo "[0,PI/2]".

Valore predefinito: "PI/5"

x0
y0 Imposta le espressioni delle coordinate del centro. Rispettivamente "w/2" e "h/2" per impostazione predefinita.

modo
Imposta la modalità avanti/indietro.

Le modalità disponibili sono:

inoltrare
Maggiore è la distanza dal punto centrale, più scura diventa l'immagine.

arretrato
Maggiore è la distanza dal punto centrale, più luminosa diventa l'immagine.
Questo può essere usato per invertire un effetto vignetta, anche se non è automatico
rilevamento per estrarre la lente angolo e altre impostazioni (ancora). Può anche essere usato
per creare un effetto bruciante.

Il valore predefinito è inoltrare.

eval
Imposta la modalità di valutazione per le espressioni (angolo, x0, y0).

Accetta i seguenti valori:

init
Valuta le espressioni solo una volta durante l'inizializzazione del filtro.

telaio
Valuta le espressioni per ogni fotogramma in arrivo. Questo è molto più lento del init
in quanto richiede il ricalcolo di tutti gli ablatori, ma consente l'avanzata
espressioni dinamiche.

Il valore predefinito è init.

tremare
Impostare il dithering per ridurre gli effetti di bande circolari. Il valore predefinito è 1 (abilitato).

aspetto
Imposta l'aspetto vignetta. Questa impostazione consente di regolare la forma della vignetta.
L'impostazione di questo valore sul SAR dell'input creerà una vignettatura rettangolare
seguendo le dimensioni del video.

L'impostazione predefinita è "1/1".

Espressioni

I alfa, x0 ed y0 le espressioni possono contenere i seguenti parametri.

w
h inserire larghezza e altezza

n il numero di frame di input, a partire da 0

pts il tempo PTS (Presentation TimeStamp) del fotogramma video filtrato, espresso in TB
unità, NAN se non definito

r frame rate del video in ingresso, NAN se il frame rate in ingresso è sconosciuto

t il PTS (Presentation TimeStamp) del fotogramma video filtrato, espresso in secondi,
NAN se non definito

tb base dei tempi del video in ingresso

Esempi

· Applicare un semplice effetto vignettatura forte:

vignetta=PI/4

· Crea una vignettatura tremolante:

vignetta='PI/4+casuale(1)*PI/50':eval=frame

vsstack
Impila verticalmente i video di input.

Tutti i flussi devono essere dello stesso formato pixel e della stessa larghezza.

Nota che questo filtro è più veloce dell'uso copertura ed sentiero filtro per creare lo stesso output.

Il filtro accetta la seguente opzione:

nb_input
Imposta il numero di flussi di input. Il valore predefinito è 2.

w3fdif
Deinterlacciare il video in ingresso ("w3fdif" sta per "Weston 3 Field Deinterlacing Filter").

Basato sul processo descritto da Martin Weston per BBC R&D e implementato sulla base del
algoritmo di deinterlacciamento scritto da Jim Easterbrook per BBC R&D, il campo Weston 3
Il filtro di deinterlacciamento utilizza coefficienti di filtro calcolati da BBC R&D.

Esistono due serie di coefficienti di filtro, i cosiddetti "semplici": e "complessi". Quale serie di
i coefficienti di filtro utilizzati possono essere impostati passando un parametro opzionale:

filtro
Impostare i coefficienti del filtro di interlacciamento. Accetta uno dei seguenti valori:

semplice
Semplice set di coefficienti di filtraggio.

complesso
Set di coefficienti di filtro più complessi.

Il valore predefinito è complesso.

deint
Specificare quali frame deinterlacciare. Accetta uno dei seguenti valori:

contro tutti i Deinterlaccia tutti i frame,

interlacciato
Deinterlaccia solo i fotogrammi contrassegnati come interlacciati.

Il valore predefinito è contro tutti i.

della forma d'onda
Monitor di forma d'onda video.

Il monitor forma d'onda traccia l'intensità del componente del colore. Per impostazione predefinita, solo luminanza. Ogni
colonna della forma d'onda corrisponde a una colonna di pixel nel video sorgente.

Accetta le seguenti opzioni:

modalità, m
Può essere "riga" o "colonna". L'impostazione predefinita è "colonna". In modalità riga, il grafico sul
il lato sinistro rappresenta il valore del componente colore 0 e il lato destro rappresenta il valore =
255. In modalità colonna, il lato superiore rappresenta il valore del componente colore = 0 e il lato inferiore
rappresenta il valore = 255.

intensità, i
Imposta l'intensità. I valori più piccoli sono utili per scoprire quanti valori dello stesso
la luminanza è distribuita tra le righe/colonne di input. Il valore predefinito è 0.04. Consentito
l'intervallo è [0, 1].

specchio, r
Imposta la modalità di mirroring. 0 significa non speculare, 1 significa speculare. In modalità speculare, più in alto
i valori saranno rappresentati a sinistra per la modalità "riga" e in alto per la "colonna"
modalità. L'impostazione predefinita è 1 (con mirroring).

display, d
Imposta la modalità di visualizzazione. Accetta i seguenti valori:

copertura
Presenta informazioni identiche a quelle della "parata", tranne che i grafici
che rappresentano le componenti del colore sono sovrapposte direttamente l'una sull'altra.

Questa modalità di visualizzazione rende più facile individuare differenze o somiglianze relative in
aree sovrapposte delle componenti del colore che dovrebbero essere identiche, come
come bianchi neutri, grigi o neri.

parata
Visualizza un grafico separato per i componenti del colore affiancati in modalità "riga" o uno
sotto l'altro in modalità "colonna".

L'uso di questa modalità di visualizzazione semplifica l'individuazione delle dominanti di colore nelle alte luci e
ombre di un'immagine, confrontando i contorni dei grafici superiore e inferiore di
ciascuna forma d'onda. Poiché bianchi, grigi e neri sono caratterizzati da esattamente uguali
quantità di rosso, verde e blu, le aree neutre dell'immagine dovrebbero mostrare tre
forme d'onda di circa uguale larghezza/altezza. In caso contrario, la correzione è facile da eseguire
regolando il livello delle tre forme d'onda.

L'impostazione predefinita è "parata".

componenti, c
Imposta i componenti del colore da visualizzare. Il valore predefinito è 1, che significa solo luminanza o rosso
componente colore se l'input è nello spazio colore RGB. Se è impostato per esempio su 7 lo farà
visualizzare tutti i 3 (se) componenti di colore disponibili.

Busta, e
nessuna
Nessuna busta, questa è l'impostazione predefinita.

immediato
Inviluppo istantaneo, i valori minimo e massimo presentati nel grafico saranno facilmente
visibile anche con un piccolo valore di "passo".

picco
Mantieni i valori minimi e massimi presentati nel grafico nel tempo. In questo modo puoi
individuare ancora valori fuori intervallo senza guardare costantemente le forme d'onda.

picco+istante
Picco e inviluppo istantaneo combinati insieme.

filtro, f
passabasso
Nessun filtro, questa è l'impostazione predefinita.

piatto
Luma e crominanza combinati insieme.

un appartamento
Simile come sopra, ma mostra la differenza tra crominanza blu e rossa.

chroma
Visualizza solo la crominanza.

acromia
Simile come sopra, ma mostra la differenza tra crominanza blu e rossa.

colore
Visualizza il valore effettivo del colore sulla forma d'onda.

xbr
Applica il filtro di ingrandimento xBR di alta qualità progettato per la pixel art. Esso
segue una serie di regole di rilevamento dei bordi, vedi
<http://www.libretro.com/forums/viewtopic.php?f=6&t=134>.

Accetta la seguente opzione:

n Impostare la dimensione della scala: 2 per "2xBR", 3 per "3xBR" e 4 per "4xBR". Il valore predefinito è 3.

Yadif
Deinterlaccia il video in ingresso ("yadif" significa "un altro filtro di deinterlacciamento").

Accetta i seguenti parametri:

modo
La modalità di interlacciamento da adottare. Accetta uno dei seguenti valori:

0, invia_frame
Output un fotogramma per ogni fotogramma.

1, campo_invio
Output un frame per ogni campo.

2, send_frame_nospatial
Come "send_frame", ma salta il controllo dell'interlacciamento spaziale.

3, send_field_nospatial
Come "send_field", ma salta il controllo dell'interlacciamento spaziale.

Il valore predefinito è "send_frame".

parità
La parità del campo immagine presunta per il video interlacciato in ingresso. Accetta uno dei
seguenti valori:

0, tff
Supponiamo che il campo in alto sia il primo.

1, BFF
Supponiamo che il campo in basso sia il primo.

-1, auto
Abilita il rilevamento automatico della parità di campo.

Il valore predefinito è "auto". Se l'interlacciamento è sconosciuto o il decoder no
esportare queste informazioni, verrà utilizzato prima il campo in alto.

deint
Specificare quali frame deinterlacciare. Accetta uno dei seguenti valori:

0, contro tutti i
Deinterlaccia tutti i frame.

1, interlacciato
Deinterlaccia solo i fotogrammi contrassegnati come interlacciati.

Il valore predefinito è "tutto".

zoompan
Applicare l'effetto Zoom e panoramica.

Questo filtro accetta le seguenti opzioni:

Ingrandisci, z
Imposta l'espressione dello zoom. Il valore predefinito è 1.

x
y Imposta l'espressione xey. Il valore predefinito è 0.

d Imposta l'espressione della durata in numero di fotogrammi. Questo imposta per quanti numeri di
l'effetto frame durerà per la singola immagine in ingresso.

s Imposta la dimensione dell'immagine di output, l'impostazione predefinita è "hd720".

Ogni espressione può contenere le seguenti costanti:

in_w, iw
Larghezza di ingresso.

in_h, ih
Altezza di ingresso.

fuori_w, ow
Larghezza di uscita.

fuori_h, oh
Altezza di uscita.

in Conteggio fotogrammi di input.

on Conteggio fotogrammi in uscita.

x
y Ultima posizione 'x' e 'y' calcolata dall'espressione 'x' e 'y' per l'input corrente
telaio.

px
py 'x' e 'y' dell'ultimo frame di output del precedente frame di input o 0 quando non c'era ancora
tale frame (primo frame di input).

zoom
Ultimo zoom calcolato dall'espressione 'z' per il frame di input corrente.

proom
Ultimo zoom calcolato dell'ultimo frame di output del frame di input precedente.

durata
Numero di frame di output per il frame di input corrente. Calcolato dall'espressione 'd' per
ogni frame di input.

durata
numero di frame di output creati per il frame di input precedente

a Numero razionale: larghezza di input / altezza di input

sar rapporto di aspetto del campione

dare rapporto di aspetto dello schermo

Esempi

· Zoom avanti fino a 1.5 e panoramica contemporaneamente su un punto vicino al centro dell'immagine:

zoompan=z='min(zoom+0.0015,1.5)':d=700:x='if(gte(zoom,1.5),x,x+1/a)':y='if(gte(zoom,1.5),y,y+1)':s=640x360

· Zoom avanti fino a 1.5 e panoramica sempre al centro dell'immagine:

zoompan=z='min(zoom+0.0015,1.5)':d=700:x='iw/2-(iw/zoom/2)':y='ih/2-(ih/zoom/2)'

VIDEO FONTI


Di seguito è riportata una descrizione delle sorgenti video attualmente disponibili.

bufferizzare
Archivia i fotogrammi video e rendili disponibili per la catena di filtri.

Questa fonte è principalmente destinata ad un uso programmatico, in particolare attraverso l'interfaccia
definito in libavfilter/vsrc_buffer.h.

Accetta i seguenti parametri:

dimensione del video
Specificare la dimensione (larghezza e altezza) dei fotogrammi video memorizzati nel buffer. Per la sintassi di
questa opzione, controlla il "Video dimensione" pagina in , il ffmpeg-utils Manuale.

larghezza
La larghezza del video in ingresso.

altezza
L'altezza del video in ingresso.

pix_fmt
Una stringa che rappresenta il formato in pixel dei fotogrammi video memorizzati nel buffer. potrebbe essere un
numero corrispondente a un formato pixel o un nome di formato pixel.

tempo base
Specificare il timebase assunto dai timestamp dei frame bufferizzati.

frequenza dei fotogrammi
Specificare la frequenza fotogrammi prevista per il flusso video.

pixel_aspetto, sar
Le proporzioni del campione (pixel) del video in ingresso.

sws_param
Specificare i parametri facoltativi da utilizzare per il filtro scala che viene automaticamente
inserito quando viene rilevata una modifica dell'input nella dimensione o nel formato dell'input.

Per esempio:

buffer=width=320:height=240:pix_fmt=yuv410p:time_base=1/24:sar=1

indicherà alla sorgente di accettare fotogrammi video con dimensioni 320x240 e con formato
"yuv410p", assumendo 1/24 come timestamp timebase e pixel quadrati (1:1 aspetto del campione
rapporto). Poiché il formato pixel con il nome "yuv410p" corrisponde al numero 6 (controlla il
enum AVPixelFormat definizione in libavutil/pixfmt.h), questo esempio corrisponde a:

buffer=size=320x240:pixfmt=6:time_base=1/24:pixel_aspect=1/1

In alternativa, le opzioni possono essere specificate come stringa piatta, ma questa sintassi è
deprecato:

larghezza:altezza:pix_fmt:base_tempo.num:base_tempo.den:pixel_aspetto.num:pixel_aspect.den[:sws_param]

cellulare
Crea uno schema generato da un automa cellulare elementare.

Lo stato iniziale dell'automa cellulare può essere definito attraverso il Nome del filee
modello opzioni. Se tali opzioni non sono specificate, uno stato iniziale viene creato casualmente.

Ad ogni nuovo fotogramma una nuova riga nel video viene riempita con il risultato del cellulare
automa di nuova generazione. Il comportamento quando l'intero frame è riempito è definito da
scorrere opzione.

Questa fonte accetta le seguenti opzioni:

nome del file, f
Leggere lo stato iniziale dell'automa cellulare, ovvero la riga iniziale, da quello specificato
file. Nel file, ogni carattere non di spaziatura è considerato una cella viva, a
newline terminerà la riga e gli ulteriori caratteri nel file verranno ignorati.

modello, p
Leggere lo stato iniziale dell'automa cellulare, ovvero la riga iniziale, da quello specificato
stringa.

Ogni carattere non di spaziatura nella stringa è considerato una cella viva, una nuova riga
terminerà la riga e gli ulteriori caratteri nella stringa verranno ignorati.

Vota, r
Imposta la frequenza video, ovvero il numero di fotogrammi generati al secondo. Il valore predefinito è 25.

rapporto_riempimento_casuale, rapporto
Imposta il rapporto di riempimento casuale per la riga iniziale dell'automa cellulare. È un galleggiante
valore del numero di punti compreso tra 0 e 1, il valore predefinito è 1/PHI.

Questa opzione viene ignorata quando viene specificato un file o un modello.

seme_casuale, seme
Imposta il seme per riempire in modo casuale la riga iniziale, deve essere un numero intero compreso tra
0 e UINT32_MAX. Se non specificato, o se impostato esplicitamente a -1, il filtro tenterà di
usa un buon seme casuale sulla base del massimo sforzo.

regola
Imposta la regola dell'automa cellulare, è un numero compreso tra 0 e 255. Valore predefinito
è 110.

dimensione, s
Imposta la dimensione del video in uscita. Per la sintassi di questa opzione, controlla il "Video
dimensione" pagina in , il ffmpeg-utils Manuale.

If Nome del file or modello è specificato, la dimensione è impostata di default sulla larghezza del
riga dello stato iniziale specificato e l'altezza è impostata su larghezza * FIA.

If Taglia è impostato, deve contenere la larghezza della stringa di pattern specificata e il
il motivo specificato sarà centrato nella riga più grande.

Se non viene specificato un nome file o una stringa di pattern, il valore della dimensione predefinito è
"320x518" (usato per uno stato iniziale generato casualmente).

scorrere
Se impostato su 1, scorrere l'output verso l'alto quando tutte le righe nell'output sono state
già riempito. Se impostato su 0, la nuova riga generata verrà scritta sopra la riga superiore
subito dopo che la riga inferiore è stata riempita. Il valore predefinito è 1.

inizio_pieno, pieno
Se impostato su 1, riempi completamente l'output con le righe generate prima di emettere il
primo quadro. Questo è il comportamento predefinito, per disabilitare impostare il valore su 0.

punto
Se impostato su 1, unire insieme i bordi del ferro sinistro e destro. Questa è l'impostazione predefinita
comportamento, per disabilitare impostare il valore su 0.

Esempi

· Leggi lo stato iniziale da modelloe specificare un output di dimensioni 200x400.

cellauto=f=schema:s=200x400

· Genera una riga iniziale casuale con una larghezza di 200 celle, con un rapporto di riempimento di 2/3:

cellauto=rapporto=2/3:s=200x200

· Creare uno schema generato dalla regola 18 partendo da una singola cella viva centrata su un
riga iniziale con larghezza 100:

cellauto=p=@s=100x400:full=0:regola=18

· Specificare uno schema iniziale più elaborato:

cellauto=p='@@ @ @@':s=100x400:full=0:rule=18

Mandelbrot
Genera un frattale insieme di Mandelbrot e ingrandisci progressivamente verso il punto specificato con
inizio_x ed inizio_a.

Questa fonte accetta le seguenti opzioni:

end_pts
Imposta il valore dei punti terminali. Il valore predefinito è 400.

fondo_scala
Imposta il valore della scala del terminale. Deve essere un valore in virgola mobile. Il valore predefinito è 0.3.

interno
Imposta la modalità di colorazione interna, ovvero l'algoritmo utilizzato per disegnare il frattale di Mandelbrot
regione interna.

Assume uno dei seguenti valori:

Nero
Imposta la modalità nera.

convergenza
Mostra il tempo fino alla convergenza.

mincol
Imposta il colore in base al punto più vicino all'origine delle iterazioni.

periodo
Imposta la modalità periodo.

Il valore predefinito è mincol.

salvataggio
Imposta il valore del salvataggio. Il valore predefinito è 10.0.

massimo
Imposta il numero massimo di iterazioni eseguite dall'algoritmo di rendering. Il valore predefinito è
7189

esterno
Imposta la modalità di colorazione esterna. Assume uno dei seguenti valori:

iterazione_conteggio
Imposta la modalità di conteggio delle iterazioni.

conteggio_iterazione_normalizzata
impostare la modalità di conteggio delle iterazioni normalizzate.

Il valore predefinito è conteggio_iterazione_normalizzata.

Vota, r
Imposta la frequenza dei fotogrammi, espressa come numero di fotogrammi al secondo. Il valore predefinito è "25".

dimensione, s
Imposta la dimensione del fotogramma. Per la sintassi di questa opzione, controlla la sezione "Dimensioni video" nel
ffmpeg-utils manuale. Il valore predefinito è "640x480".

scala_iniziale
Imposta il valore di scala iniziale. Il valore predefinito è 3.0.

inizio_x
Imposta la posizione x iniziale. Deve essere un valore in virgola mobile compreso tra -100 e 100.
Il valore predefinito è -0.743643887037158704752191506114774.

inizio_a
Imposta la posizione y iniziale. Deve essere un valore in virgola mobile compreso tra -100 e 100.
Il valore predefinito è -0.131825904205311970493132056385139.

mptestsrc
Genera vari modelli di test, come generati dal filtro di test di MPlayer.

La dimensione del video generato è fissa ed è 256x256. Questa fonte è utile in
particolare per testare le funzionalità di codifica.

Questa fonte accetta le seguenti opzioni:

Vota, r
Specificare la frequenza dei fotogrammi del video di origine, come il numero di fotogrammi generati per
secondo. Deve essere una stringa nel formato frame_rate_num/frame_rate_den, un intero
numero, un numero in virgola mobile o un'abbreviazione valida della frequenza dei fotogrammi video. Il predefinito
il valore è "25".

durata, d
Imposta la durata del video di origine. Vedere , il Ora durata pagina in , il
ffmpeg-utils(1) Manuale per la sintassi accettata.

Se non specificato, o la durata espressa è negativa, il video dovrebbe essere
generato per sempre.

test t
Imposta il numero o il nome del test da eseguire. I test supportati sono:

dc_luma
dc_croma
freq_lumina
freq_chroma
amp_lumina
amp_chroma
cbp
mv
ring1
ring2
contro tutti i

Il valore predefinito è "all", che scorrerà l'elenco di tutti i test.

Qualche esempio:

mptestsrc=t=dc_luma

genererà un modello di test "dc_luma".

frei0r_src
Fornisci una fonte più libera.

Per abilitare la compilazione di questo filtro è necessario installare l'intestazione frei0r e configurare
FFmpeg con "--enable-frei0r".

Questa sorgente accetta i seguenti parametri:

Taglia
La dimensione del video da generare. Per la sintassi di questa opzione, controlla il "Video
dimensione" pagina in , il ffmpeg-utils Manuale.

framerate
Il framerate del video generato. Potrebbe essere una stringa della forma num/giorno o
abbreviazione del frame rate.

nome_filtro
Il nome della sorgente frei0r da caricare. Per maggiori informazioni su frei0r e come
per impostare i parametri leggere il frei0r sezione nella documentazione dei filtri video.

filter_params
Un elenco di parametri separati da '|' da passare al sorgente frei0r.

Ad esempio, per generare una sorgente frei0r partik0l con dimensione 200x200 e frame rate 10
che è sovrapposto all'ingresso principale del filtro di sovrapposizione:

frei0r_src=size=200x200:framerate=10:filter_name=partik0l:filter_params=1234 [overlay]; [in][sovrapposizione] sovrapposizione

life
Genera uno schema di vita.

Questa fonte si basa su una generalizzazione del gioco della vita di John Conway.

L'input di origine rappresenta una griglia di vita, ogni pixel rappresenta una cella che può essere in uno
di due possibili stati, vivo o morto. Ogni cellula interagisce con i suoi otto vicini,
che sono le celle adiacenti orizzontalmente, verticalmente o diagonalmente.

Ad ogni interazione la griglia evolve secondo la regola adottata, che specifica il
numero di cellule vive vicine che farà sì che una cellula rimanga viva o nasca. Il regola opzione
permette di specificare la regola da adottare.

Questa fonte accetta le seguenti opzioni:

nome del file, f
Imposta il file da cui leggere lo stato iniziale della griglia. Nel file, ogni non
il carattere dello spazio bianco è considerato una cella viva e la nuova riga viene utilizzata per delimitare il
fine di ogni riga.

Se questa opzione non è specificata, la griglia iniziale viene generata casualmente.

Vota, r
Imposta la frequenza video, ovvero il numero di fotogrammi generati al secondo. Il valore predefinito è 25.

rapporto_riempimento_casuale, rapporto
Imposta il rapporto di riempimento casuale per la griglia casuale iniziale. È un numero in virgola mobile
valore compreso tra 0 e 1, il valore predefinito è 1/PHI. Viene ignorato quando viene specificato un file.

seme_casuale, seme
Imposta il seme per riempire la griglia casuale iniziale, deve essere un numero intero compreso tra
0 e UINT32_MAX. Se non specificato, o se impostato esplicitamente a -1, il filtro tenterà di
usa un buon seme casuale sulla base del massimo sforzo.

regola
Imposta la regola della vita.

Una regola può essere specificata con un codice del tipo "SNS/BNB", dove NS ed NB sono
sequenze di numeri nell'intervallo 0-8, NS specifica il numero di celle vicine vive
che fanno rimanere in vita una cellula viva, e NB il numero di cellule vicine vive che
fare in modo che una cellula morta diventi viva (cioè "nasce"). "s" e "b" possono essere usati al posto
rispettivamente di "S" e "B".

In alternativa, una regola può essere specificata da un intero a 18 bit. I 9 bit di ordine superiore sono
usato per codificare lo stato della cella successiva se è vivo per ogni numero di vicini vivi
celle, i bit di ordine inferiore specificano la regola per "nascere" nuove celle. Bit di ordine superiore
codificare per un numero maggiore di celle vicine. Ad esempio il numero 6153 =
"(12<<9)+9" specifica una regola Stay Alive di 12 e una regola Born di 9, che corrisponde
a "S23/B03".

Il valore predefinito è "S23/B3", che è la regola originale del gioco della vita di Conway, e lo farà
mantiene in vita una cellula se ha 2 o 3 cellule vive vicine e ne nascerà una nuova se
ci sono tre cellule vive intorno a una cellula morta.

dimensione, s
Imposta la dimensione del video in uscita. Per la sintassi di questa opzione, controlla il "Video
dimensione" pagina in , il ffmpeg-utils Manuale.

If Nome del file è specificato, la dimensione è impostata per impostazione predefinita sulla stessa dimensione dell'input
file. Se Taglia è impostato, deve contenere la dimensione specificata nel file di input e il
la griglia iniziale definita in quel file è centrata nell'area risultante più grande.

Se non viene specificato un nome file, il valore della dimensione predefinito è "320x240" (usato per a
griglia iniziale generata casualmente).

punto
Se impostato su 1, unisci insieme i bordi sinistro e destro della griglia e la parte superiore e inferiore
anche bordi. Il valore predefinito è 1.

stampo
Imposta la velocità dello stampo cellulare. Se impostato, una cella morta andrà da colore_morte a stampo_colore con una
passo di stampo. stampo può avere un valore da 0 a 255.

colore_vita
Imposta il colore delle cellule viventi (o appena nate).

colore_morte
Imposta il colore delle cellule morte. Se stampo è impostato, questo è il primo colore utilizzato per rappresentare
una cellula morta.

stampo_colore
Imposta il colore della muffa, per cellule decisamente morte e ammuffite.

Per la sintassi di queste 3 opzioni di colore, controlla la sezione "Colore" in ffmpeg-utils
manuale.

Esempi

· Leggi una griglia da modello, e centralo su una griglia di dimensioni 300x300 pixel:

vita=f=schema:s=300x300

· Genera una griglia casuale di dimensioni 200x200, con un rapporto di riempimento di 2/3:

durata=rapporto=2/3:s=200x200

· Specificare una regola personalizzata per l'evoluzione di una griglia generata casualmente:

vita=regola=S14/B34

· Esempio completo con effetto di morte lenta (muffa) usando ffplay:

ffplay -f lavfi life=s=300x200:mold=10:r=60:ratio=0.1:death_color=#C83232:life_color=#00ff00,scale=1200:800:flags=16

tuttorgb, alluv, colore, Haldclutsrc, nullsrc, rgbtestsrc, smptebar, smptehdbar, testrc
La sorgente "allrgb" restituisce frame di dimensione 4096x4096 di tutti i colori RGB.

La sorgente "allyuv" restituisce frame di dimensione 4096x4096 di tutti i colori yuv.

La sorgente "colore" fornisce un input di colore uniforme.

Il sorgente "haldclutsrc" fornisce un'identità Hald CLUT. Guarda anche Haldclut filtro.

La sorgente "nullsrc" restituisce frame video non elaborati. È principalmente utile per essere impiegato
negli strumenti di analisi/debug o come fonte per filtri che ignorano i dati di input.

La sorgente "rgbtestsrc" genera un pattern di test RGB utile per rilevare RGB vs BGR
problemi. Dovresti vedere una striscia rossa, verde e blu dall'alto verso il basso.

La sorgente "smptebars" genera un modello di barre di colore, basato sull'ingegneria SMPTE
Linea guida EG 1-1990.

La sorgente "smptehdbars" genera un pattern di barre di colore, basato su SMPTE RP 219-2002.

La sorgente "testsrc" genera un modello video di prova, mostrando un modello di colore, uno scorrimento
gradiente e un timestamp. Questo è principalmente destinato a scopi di test.

Le fonti accettano i seguenti parametri:

colore, c
Specificare il colore della sorgente, disponibile solo nella sorgente "colore". Per la sintassi
di questa opzione, controlla la sezione "Colore" nel manuale di ffmpeg-utils.

livello
Specificare il livello di Hald CLUT, disponibile solo nel sorgente "haldclutsrc". UN
il livello di "N" genera un'immagine di "N*N*N" per "N*N*N" pixel da utilizzare come identità
matrice per tabelle di ricerca 3D. Ogni componente è codificato su una scala "1/(N*N)".

dimensione, s
Specificare la dimensione del video di origine. Per la sintassi di questa opzione, controlla il "Video
dimensione" pagina in , il ffmpeg-utils Manuale. Il valore predefinito è "320x240".

Questa opzione non è disponibile con il filtro "haldclutsrc".

Vota, r
Specificare la frequenza dei fotogrammi del video di origine, come il numero di fotogrammi generati per
secondo. Deve essere una stringa nel formato frame_rate_num/frame_rate_den, un intero
numero, un numero in virgola mobile o un'abbreviazione valida della frequenza dei fotogrammi video. Il predefinito
il valore è "25".

sar Imposta le proporzioni del campione del video di origine.

durata, d
Imposta la durata del video di origine. Vedere , il Ora durata pagina in , il
ffmpeg-utils(1) Manuale per la sintassi accettata.

Se non specificato, o la durata espressa è negativa, il video dovrebbe essere
generato per sempre.

decimali, n
Imposta il numero di decimali da mostrare nel timestamp, disponibile solo in "testsrc"
fonte.

Il valore del timestamp visualizzato corrisponderà al valore del timestamp originale
moltiplicato per la potenza di 10 del valore specificato. Il valore predefinito è 0.

Ad esempio quanto segue:

testrc=durata=5.3:dimensione=qcif:rate=10

genererà un video con una durata di 5.3 secondi, con dimensioni 176x144 e un frame rate
di 10 fotogrammi al secondo.

La seguente descrizione del grafico genererà una sorgente rossa con un'opacità di 0.2, con
dimensione "qcif" e una frequenza fotogrammi di 10 fotogrammi al secondo.

colore=c=[email protected]:s=qcif:r=10

Se il contenuto di input deve essere ignorato, è possibile utilizzare "nullsrc". Il seguente comando
genera rumore nel piano di luminanza utilizzando il filtro "geq":

nullsrc=s=256x256, geq=casuale(1)*255:128:128

Comandi

La sorgente "color" supporta i seguenti comandi:

c, colore
Imposta il colore dell'immagine creata. Accetta la stessa sintassi del corrispondente colore
opzione.

VIDEO LAVELLI


Di seguito è riportata una descrizione dei sink video attualmente disponibili.

dissipatore
Archivia i fotogrammi video e rendili disponibili fino alla fine del grafico del filtro.

Questo sink è principalmente destinato all'uso programmatico, in particolare attraverso l'interfaccia
definito in libavfilter/buffersink.h o il sistema di opzioni.

Accetta un puntatore a una struttura AVBufferSinkContext, che definisce l'ingresso
formati dei buffer, da passare come parametro opaco a "avfilter_init_filter" per
inizializzazione.

lavandino nullo
Null video sink: non fare assolutamente nulla con il video in ingresso. È principalmente utile come a
modello e per l'utilizzo in strumenti di analisi/debug.

MULTIMEDIA FILTRI


Di seguito è riportata una descrizione dei filtri multimediali attualmente disponibili.

afasemetro
Converti l'audio in ingresso in un'uscita video, visualizzando la fase audio.

Il filtro accetta le seguenti opzioni:

Vota, r
Imposta la frequenza dei fotogrammi in uscita. Il valore predefinito è 25.

dimensione, s
Imposta la dimensione del video per l'output. Per la sintassi di questa opzione, controlla il "Video
dimensione" pagina in , il ffmpeg-utils Manuale. Il valore predefinito è "800x400".

rc
gc
bc Specificare il contrasto rosso, verde, blu. I valori predefiniti sono 2, 7 e 1. Intervallo consentito
è "[0, 255]".

mpc Imposta il colore che verrà utilizzato per disegnare la fase mediana. Se il colore è "nessuno" che è
impostazione predefinita, non verrà disegnato alcun valore di fase mediano.

Il filtro esporta anche i metadati del frame "lavfi.aphasemeter.phase" che rappresenta la media
fase del frame audio corrente. Il valore è nell'intervallo "[-1, 1]". Il "-1" significa sinistra e destra
i canali sono completamente fuori fase e 1 significa che i canali sono in fase.

avettorescopio
Converti l'audio in ingresso in un'uscita video, che rappresenta l'ambito del vettore audio.

Il filtro viene utilizzato per misurare la differenza tra i canali del flusso audio stereo. UN
segnale monoaurale, costituito da segnale sinistro e destro identici, risulta in rettilineo
linea verticale. Qualsiasi separazione stereo è visibile come una deviazione da questa linea, creando un
Figura di Lissajous. Se la linea retta (o la deviazione da essa) ma orizzontale appare questa
indica che i canali sinistro e destro sono fuori fase.

Il filtro accetta le seguenti opzioni:

modalità, m
Imposta la modalità vettorscopio.

I valori disponibili sono:

lissajous
Lissajous ruotato di 45 gradi.

lissajous_xy
Come sopra ma non ruotato.

polare
Forma simile alla metà del cerchio.

Il valore predefinito è lissajous.

dimensione, s
Imposta la dimensione del video per l'output. Per la sintassi di questa opzione, controlla il "Video
dimensione" pagina in , il ffmpeg-utils Manuale. Il valore predefinito è "400x400".

Vota, r
Imposta la frequenza dei fotogrammi in uscita. Il valore predefinito è 25.

rc
gc
bc
ac Specificare il contrasto rosso, verde, blu e alfa. I valori predefiniti sono 40, 160, 80 e
255. L'intervallo consentito è "[0, 255]".

rf
gf
bf
af Specificare la dissolvenza rossa, verde, blu e alfa. I valori predefiniti sono 15, 10, 5 e 5.
L'intervallo consentito è "[0, 255]".

zoom
Imposta il fattore di zoom. Il valore predefinito è 1. L'intervallo consentito è "[1, 10]".

Esempi

· Esempio completo utilizzando ffplay:

ffplay -f lavfi 'amovie=input.mp3, asplit [a][out1];
[a] avectorscope=zoom=1.3:rc=2:gc=200:bc=10:rf=1:gf=8:bf=7 [out0]'

concat
Concatena flussi audio e video, unendoli uno dopo l'altro.

Il filtro funziona su segmenti di flussi video e audio sincronizzati. Tutti i segmenti devono
avere lo stesso numero di stream di ogni tipo, e questo sarà anche il numero di stream
in uscita.

Il filtro accetta le seguenti opzioni:

n Imposta il numero di segmenti. Il valore predefinito è 2.

v Imposta il numero di flussi video in uscita, che è anche il numero di flussi video in
ogni segmento. Il valore predefinito è 1.

a Imposta il numero di flussi audio in uscita, che è anche il numero di flussi audio in
ogni segmento. Il valore predefinito è 0.

pericoloso
Attiva la modalità non sicura: non fallire se i segmenti hanno un formato diverso.

Il filtro ha v+a uscite: prima v uscite video, quindi a uscite audio.

Ci sono nx(v+a) ingressi: prima gli ingressi per il primo segmento, nello stesso ordine del
uscite, quindi gli ingressi per il secondo segmento, ecc.

I flussi correlati non hanno sempre esattamente la stessa durata, per vari motivi
inclusa la dimensione del frame del codec o l'authoring sciatto. Per questo motivo, relativo sincronizzato
i flussi (ad esempio un video e la sua traccia audio) dovrebbero essere concatenati in una volta. il concat
il filtro utilizzerà la durata del flusso più lungo in ogni segmento (tranne l'ultimo),
e, se necessario, imbottigliare i flussi audio più brevi con il silenzio.

Affinché questo filtro funzioni correttamente, tutti i segmenti devono iniziare con il timestamp 0.

Tutti i flussi corrispondenti devono avere gli stessi parametri in tutti i segmenti; il filtraggio
il sistema selezionerà automaticamente un formato pixel comune per i flussi video e un comune
formato di campionamento, frequenza di campionamento e layout del canale per i flussi audio, ma altre impostazioni, come
come risoluzione, devono essere convertiti esplicitamente dall'utente.

Sono accettabili frame rate diversi, ma si tradurrà in frame rate variabile in uscita; essere
assicurati di configurare il file di output per gestirlo.

Esempi

· Concatena un'apertura, un episodio e un finale, il tutto in versione bilingue (video in
flusso 0, audio nei flussi 1 e 2):

ffmpeg -i apertura.mkv -i episodio.mkv -i finale.mkv -filter_complex \
'[0:0] [0:1] [0:2] [1:0] [1:1] [1:2] [2:0] [2:1] [2:2]
concat=n=3:v=1:a=2 [v] [a1] [a2]' \
-map '[v]' -map '[a1]' -map '[a2]' output.mkv

· Concatenare due parti, gestendo separatamente audio e video, utilizzando (a)film
fonti e regolando la risoluzione:

film=parte1.mp4, scala=512:288 [v1] ; film=parte1.mp4 [a1] ;
film=parte2.mp4, scala=512:288 [v2] ; film=parte2.mp4 [a2] ;
[v1] [v2] concat [outv] ; [a1] [a2] concat=v=0:a=1 [outa]

Nota che si verificherà una desincronizzazione nel punto se i flussi audio e video non lo fanno
hanno esattamente la stessa durata nel primo file.

ebur128
Filtro scanner EBU R128. Questo filtro prende un flusso audio come input e lo emette
invariato. Per impostazione predefinita, registra un messaggio a una frequenza di 10Hz con il Momentary
volume (identificato da "M"), volume a breve termine ("S"), volume integrato ("I") e
Gamma di volume ("LRA").

Il filtro ha anche un'uscita video (vedi il video opzione) con un grafico in tempo reale per
osservare l'evoluzione del volume. Il grafico contiene il messaggio registrato sopra menzionato,
quindi non viene più stampato quando questa opzione è impostata, a meno che non sia impostata la registrazione dettagliata.
L'area grafica principale contiene il volume a breve termine (3 secondi di analisi) e il
l'indicatore a destra è per il volume momentaneo (400 millisecondi).

Maggiori informazioni sulla raccomandazione Loudness EBU R128 su
<http://tech.ebu.ch/loudness>.

Il filtro accetta le seguenti opzioni:

video
Attiva l'uscita video. Il flusso audio viene passato invariato se questa opzione è
impostare o no. Il flusso video sarà il primo flusso di output se attivato. L'impostazione predefinita è
0.

Taglia
Imposta la dimensione del video. Questa opzione è solo per i video. Per la sintassi di questa opzione,
controlla il "Video dimensione" pagina in , il ffmpeg-utils Manuale. Predefinito e minimo
la risoluzione è "640x480".

metro
Imposta il misuratore di scala EBU. Il valore predefinito è 9. I valori comuni sono 9 e 18, rispettivamente per
Misuratore scala EBU +9 e misuratore scala EBU +18. Qualsiasi altro valore intero compreso in questo intervallo
È permesso.

metadati
Imposta l'inserimento dei metadati. Se impostato su 1, l'ingresso audio verrà segmentato in 100 ms
frame di output, ognuno dei quali contiene varie informazioni sul volume nei metadati. Tutto
le chiavi dei metadati sono precedute da "lavfi.r128.".

L'impostazione predefinita è 0.

framelog
Forza il livello di registrazione del frame.

I valori disponibili sono:

info
livello di registrazione delle informazioni

verboso
livello di registrazione dettagliato

Per impostazione predefinita, il livello di registrazione è impostato su info. Se il video oppure metadati le opzioni sono
impostato, passa a verboso.

picco
Imposta le modalità di picco.

Le modalità disponibili sono cumulabili (l'opzione è di tipo "flag"). I valori possibili sono:

nessuna
Disabilita qualsiasi modalità di picco (impostazione predefinita).

campione
Abilita la modalità sample-peak.

Modalità di picco semplice che cerca il valore del campione più alto. Registra un messaggio per
campione-picco (identificato da "SPK").

vero
Abilita la modalità True Peak.

Se abilitato, la ricerca del picco viene eseguita su una versione sovracampionata del flusso di input
per una migliore precisione di picco. Registra un messaggio per true-peak. (identificato da "TPK")
e true-peak per frame (identificato da "FTPK"). Questa modalità richiede una build con
"libswresample".

Esempi

· Grafico in tempo reale utilizzando ffplay, con un misuratore scala EBU +18:

ffplay -f lavfi -i "amovie=input.mp3,ebur128=video=1:meter=18 [out0][out1]"

· Eseguire un'analisi con ffmpeg:

ffmpeg -nostats -i input.mp3 -filter_complex ebur128 -f null -

intercalare, interfoglio
Interlaccia temporaneamente i fotogrammi da più input.

"interleave" funziona con gli ingressi video, "ainterleave" con l'audio.

Questi filtri leggono i frame da diversi input e inviano il frame in coda più vecchio al
produzione.

I flussi di input devono avere valori di timestamp di frame ben definiti e monotona crescenti.

Per inviare un frame all'output, questi filtri devono accodare almeno un frame
per ogni input, quindi non possono funzionare nel caso in cui un input non sia ancora terminato e non lo farà
ricevere i frame in arrivo.

Ad esempio, considera il caso in cui un input è un filtro "seleziona" che elimina sempre l'input
cornici. Il filtro "interleave" continuerà a leggere da quell'input, ma non lo sarà mai
in grado di inviare nuovi frame all'output finché l'input non invierà un segnale di fine flusso.

Inoltre, a seconda della sincronizzazione degli ingressi, i filtri rilasceranno frame nel caso in cui un ingresso
riceve più frame degli altri e la coda è già piena.

Questi filtri accettano le seguenti opzioni:

nb_input, n
Imposta il numero di diversi ingressi, è 2 per impostazione predefinita.

Esempi

· Interleave frame appartenenti a diversi flussi utilizzando ffmpeg:

ffmpeg -i bambi.avi -i pr0n.mkv -filter_complex "[0:v][1:v] interleave" out.avi

· Aggiungi effetto sfocatura tremolante:

select='if(gt(casuale(0), 0.2), 1, 2)':n=2 [tmp], boxblur=2:2, [tmp] interleave

permanenti, aperme
Imposta i permessi di lettura/scrittura per i frame di output.

Questi filtri sono principalmente rivolti agli sviluppatori per testare il percorso diretto nel seguente filtro
nel filtergraph.

I filtri accettano le seguenti opzioni:

modo
Seleziona la modalità di autorizzazione.

Accetta i seguenti valori:

nessuna
Fare niente. Questa è l'impostazione predefinita.

ro Imposta tutti i frame di output in sola lettura.

rw Imposta tutti i frame di output direttamente scrivibili.

ginocchiera
Rendi il frame di sola lettura se scrivibile e scrivibile se di sola lettura.

casuale
Imposta ogni frame di output di sola lettura o scrivibile in modo casuale.

seme
Imposta il seme per il casuale mode, deve essere un numero intero compreso tra 0 e
"UINT32_MAX". Se non specificato, o se impostato esplicitamente su "-1", il filtro tenterà di
usa un buon seme casuale sulla base del massimo sforzo.

Nota: in caso di filtro auto-inserito tra il filtro permessi e il successivo,
l'autorizzazione potrebbe non essere ricevuta come previsto nel filtro successivo. Inserimento di a
formato or formato filtro prima che il filtro perms/aperms possa evitare questo problema.

Selezionare, aselezionare
Seleziona i fotogrammi da passare in output.

Questo filtro accetta le seguenti opzioni:

espr, e
Set espressione, che viene valutata per ogni frame di input.

Se l'espressione viene valutata a zero, il frame viene scartato.

Se l'esito della valutazione è negativo o NaN, il frame viene inviato alla prima uscita;
altrimenti viene inviato all'output con indice "ceil(val)-1", assumendo che l'input
l'indice parte da 0.

Ad esempio un valore di 1.2 corrisponde all'uscita con indice "ceil(1.2)-1 = 2-1 =
1", che è la seconda uscita.

uscite, n
Imposta il numero di uscite. L'uscita a cui inviare il frame selezionato si basa su
il risultato della valutazione. Il valore predefinito è 1.

L'espressione può contenere le seguenti costanti:

n Il numero (sequenziale) del frame filtrato, a partire da 0.

selezionato_n
Il numero (sequenziale) del fotogramma selezionato, a partire da 0.

precedente_selezionato_n
Il numero sequenziale dell'ultimo fotogramma selezionato. È NAN se non definito.

TB La base temporale dei timestamp di input.

pts Il PTS (Presentation TimeStamp) del fotogramma video filtrato, espresso in TB unità.
È NAN se non definito.

t Il PTS del fotogramma video filtrato, espresso in secondi. È NAN se non definito.

prev_pts
Il PTS del fotogramma video precedentemente filtrato. È NAN se non definito.

prev_selected_pts
Il PTS dell'ultimo fotogramma video precedentemente filtrato. È NAN se non definito.

precedente_selezionato_t
Il PTS dell'ultimo fotogramma video selezionato in precedenza. È NAN se non definito.

start_pts
Il PTS del primo fotogramma video nel video. È NAN se non definito.

inizio_t
L'ora del primo fotogramma video nel video. È NAN se non definito.

pict_type (video solo)
Il tipo di frame filtrato. Può assumere uno dei seguenti valori:

I
P
B
S
SI
SP
BI
tipo_interlacciato (video solo)
Il tipo di frame interlacciato. Può assumere uno dei seguenti valori:

PROGRESSIVE
La cornice è progressiva (non interlacciata).

TOPPRIMA
Il frame è top-field-first.

IN BASSO PRIMO
Il frame è il primo campo in basso.

consumato_campione_n (Audio solo)
il numero di campioni selezionati prima del fotogramma corrente

campioni_n (Audio solo)
il numero di campioni nel frame corrente

frequenza di campionamento (Audio solo)
la frequenza di campionamento in ingresso

chiave Questo è 1 se il fotogramma filtrato è un fotogramma chiave, 0 altrimenti.

inviare la posizione nel file del frame filtrato, -1 se l'informazione non è disponibile
(ad es. per video sintetici)

scena (video solo)
valore compreso tra 0 e 1 per indicare una nuova scena; un valore basso riflette una bassa probabilità
per il frame corrente per introdurre una nuova scena, mentre un valore più alto indica la corrente
frame è più probabile che sia uno (vedi l'esempio sotto)

Il valore predefinito dell'espressione di selezione è "1".

Esempi

· Seleziona tutti i frame in input:

select

L'esempio sopra è lo stesso di:

seleziona=1

· Salta tutti i frame:

seleziona=0

· Seleziona solo I-frame:

select='eq(pict_type\,I)'

· Seleziona un fotogramma ogni 100:

select='not(mod(n\,100))'

· Seleziona solo i frame contenuti nell'intervallo di tempo 10-20:

seleziona=tra (t\,10\,20)

· Seleziona solo I frame contenuti nell'intervallo di tempo 10-20:

select=tra(t\,10\,20)*eq(pict_type\,I)

· Seleziona fotogrammi con una distanza minima di 10 secondi:

select='isnan(prev_selected_t)+gte(t-prev_selected_t\,10)'

· Utilizzare aselect per selezionare solo frame audio con numero di campioni > 100:

aselect='gt(samples_n\,100)'

· Creare un mosaico delle prime scene:

ffmpeg -i video.avi -vf select='gt(scene\,0.4)',scale=160:120,tile -frames:v 1 preview.png

Confronto scena contro un valore compreso tra 0.3 e 0.5 è generalmente una scelta sensata.

· Invia frame pari e dispari a output separati e componili:

select=n=2:e='mod(n, 2)+1' [dispari][pari]; [dispari] pad=h=2*ih [tmp]; [tmp][even] overlay=y=h

inviacmd, asendcmd
Invia comandi ai filtri nel filtergraph.

Questi filtri leggono i comandi da inviare ad altri filtri nel filtergraph.

"sendcmd" deve essere inserito tra due filtri video, "asendcmd" deve essere inserito tra
due filtri audio, ma a parte questo agiscono allo stesso modo.

La specifica dei comandi può essere fornita negli argomenti del filtro con il comandi
opzione, o in un file specificato dal Nome del file opzione.

Questi filtri accettano le seguenti opzioni:

comandi, c
Imposta i comandi da leggere e inviare agli altri filtri.

nome del file, f
Imposta il nome del file dei comandi da leggere e inviare agli altri filtri.

Comandi sintassi

Una descrizione dei comandi consiste in una sequenza di specifiche di intervallo, comprendente a
elenco di comandi da eseguire quando si verifica un particolare evento relativo a quell'intervallo.
L'evento che si verifica è in genere il tempo di frame corrente che entra o esce in un determinato tempo
intervallo.

Un intervallo è specificato dalla seguente sintassi:

[- ] ;

L'intervallo di tempo è specificato dal ENTRA IN ed FINE volte. FINE è facoltativo e predefinito
al tempo massimo.

Il tempo di frame corrente è considerato all'interno dell'intervallo specificato se è incluso in
l'intervallo [ENTRA IN, FINE), cioè quando il tempo è maggiore o uguale a ENTRA IN ed è
minore di FINE.

COMANDI consiste in una sequenza di una o più specifiche di comando, separate da ",",
relativo a tale intervallo. La sintassi di una specifica di comando è data da:

[ ]

FLAGS è facoltativo e specifica il tipo di eventi relativi all'intervallo di tempo che
abilitare l'invio del comando specificato e deve essere una sequenza non nulla di flag identificativi
separati da "+" o "|" e racchiuso tra "[" e "]".

Sono riconosciuti i seguenti flag:

entrare
Il comando viene inviato quando il timestamp del frame corrente entra nell'intervallo specificato. In
in altre parole, il comando viene inviato quando il precedente timestamp del frame non era nel
dato intervallo, e la corrente è.

lasciare
Il comando viene inviato quando il timestamp del frame corrente lascia l'intervallo specificato. In
in altre parole, il comando viene inviato quando il frame timestamp precedente era nel dato
intervallo e la corrente no.

If FLAGS non è specificato, si presume un valore predefinito di "[invio]".

TARGET specifica la destinazione del comando, solitamente il nome della classe del filtro o a
nome specifico dell'istanza del filtro.

COMANDO specifica il nome del comando per il filtro di destinazione.

ARG è facoltativo e specifica l'elenco opzionale di argomenti per il dato COMANDO.

Tra una specificazione dell'intervallo e l'altra, spazi o sequenze di caratteri
iniziano con "#" fino alla fine della riga, vengono ignorati e possono essere utilizzati per annotare commenti.

Segue una descrizione BNF semplificata della sintassi della specifica dei comandi:

::= "entra" | "partire"
::= [(+|"|") ]
::= ["[" "]"] [ ]
::= [, ]
::= [- ]
::= [; ]

Esempi

· Specifica la modifica del tempo audio al secondo 4:

asendcmd=c='4.0 atempo tempo 1.5',atempo

· Specificare un elenco di comandi drawtext e hue in un file.

# mostra il testo nell'intervallo 5-10
5.0-10.0 [invio] drawtext reinit 'fontfile=FreeSerif.ttf:text=hello world',
[lascia] drawtext reinit 'fontfile=FreeSerif.ttf:text=';

# desaturare l'immagine nell'intervallo 15-20
15.0-20.0 [invio] tonalità s 0,
[invio] drawtext reinit 'fontfile=FreeSerif.ttf:text=nocolor',
[lascia] la tonalità s 1,
[lascia] drawtext reinit 'fontfile=FreeSerif.ttf:text=color';

# applica un effetto di dissolvenza della saturazione esponenziale, a partire dal tempo 25
25 [invio] tonalità s exp(25-t)

Un filtergraph che consente di leggere ed elaborare l'elenco di comandi di cui sopra memorizzato in un file
prova.cmd, può essere specificato con:

sendcmd=f=test.cmd,drawtext=fontfile=FreeSerif.ttf:text='',hue

sett, asett
Modificare il PTS (timestamp della presentazione) dei frame di input.

"setpts" funziona sui frame video, "asetpts" sui frame audio.

Questo filtro accetta le seguenti opzioni:

espr
L'espressione che viene valutata per ogni frame per costruire il suo timestamp.

L'espressione viene valutata tramite l'API eval e può contenere le seguenti costanti:

FREQUENZA DEI FOTOGRAMMI
frame rate, definito solo per video con frame rate costante

PTS Il timestamp della presentazione in input

N Il conteggio del frame di input per il video o il numero di campioni consumati, non
compreso il fotogramma corrente per l'audio, a partire da 0.

NB_CONSUMED_SAMPLES
Il numero di campioni consumati, escluso il frame corrente (solo audio)

NB_SAMPLE, S
Il numero di campioni nel frame corrente (solo audio)

FREQUENZA DI CAMPIONAMENTO, SR
La frequenza di campionamento audio.

INIZIA
Il PTS del primo fotogramma.

INIZIA
il tempo in secondi del primo fotogramma

INTRECCIATO
Indica se il frame corrente è interlacciato.

T il tempo in secondi del fotogramma corrente

POS posizione originale nel file del frame, o non definita se non definita per la corrente
telaio

PREV_INPTS
L'ingresso precedente PTS.

PREV_INT
tempo di input precedente in secondi

PREV_USCITE
L'uscita precedente PTS.

PREC_OUT
tempo di uscita precedente in secondi

TEMPO RTC
Il tempo del wallclock (RTC) in microsecondi. Questo è deprecato, usa tempo(0) invece.

AVVIO RTC
L'ora del wallclock (RTC) all'inizio del film in microsecondi.

TB La base temporale dei timestamp di input.

Esempi

· Inizia a contare PTS da zero

setpts=PTS-STARTPTS

· Applicare l'effetto movimento veloce:

setpts=0.5*PTS

· Applicare l'effetto rallentatore:

setpts=2.0*PTS

· Imposta velocità fissa di 25 fotogrammi al secondo:

setpt=N/(25*TB)

· Imposta velocità fissa a 25 fps con un po' di jitter:

setpts='1/(25*TB) * (N + 0.05 * sin(N*2*PI/25))'

· Applicare un offset di 10 secondi al PTS di ingresso:

setpt=PTS+10/TB

· Generare timestamp da una "sorgente live" e fare un rebase sulla base temporale corrente:

setpts='(RTCTIME - RTCSTART) / (TB * 1000000)'

· Genera timestamp contando i campioni:

asetpts=N/SR/TB

settb, asetb
Imposta la base temporale da utilizzare per i timestamp dei frame di output. È principalmente utile per i test
configurazione della base dei tempi.

Accetta i seguenti parametri:

espr, tb
L'espressione che viene valutata nella base dei tempi di output.

Il valore per tb è un'espressione aritmetica che rappresenta un razionale. L'espressione può
contengono le costanti "AVTB" (la base dei tempi predefinita), "intb" (la base dei tempi di input) e "sr"
(la frequenza di campionamento, solo audio). Il valore predefinito è "intb".

Esempi

· Imposta la base dei tempi su 1/25:

settb=espr=1/25

· Imposta la base dei tempi su 1/10:

settb=espr=0.1

· Imposta la base dei tempi su 1001/1000:

settb=1+0.001

· Imposta la base dei tempi su 2*intb:

settb=2*intb

· Imposta il valore predefinito della base dei tempi:

settb=AVTB

mostracqt
Converti l'audio in ingresso in un'uscita video che rappresenta lo spettro di frequenza in modo logaritmico
(usando la trasformata Q costante con algoritmo Brown-Puckette), con scala tonale musicale, da
Da Mi0 a Re#10 (10 ottave).

Il filtro accetta le seguenti opzioni:

volume
Specificare l'espressione del volume di trasformazione (moltiplicatore). L'espressione può contenere
variabili:

frequenza, frequenza, f
la frequenza in cui viene valutata la trasformata

temporizzatore, tc
valore dell'opzione timeclamp

e funzioni:

a_ponderazione(f)
Ponderazione A di uguale volume

b_ponderazione(f)
Ponderazione B di uguale volume

c_ponderazione(f)
Ponderazione C di uguale volume

Il valore predefinito è 16.

lunghezza
Specificare l'espressione della lunghezza di trasformazione. L'espressione può contenere variabili:

frequenza, frequenza, f
la frequenza in cui viene valutata la trasformata

temporizzatore, tc
valore dell'opzione timeclamp

Il valore predefinito è "384/f*tc/(384/f+tc)".

cronometro
Specificare il timeclam di trasformazione. A bassa frequenza, c'è un compromesso tra precisione
nel dominio del tempo e nel dominio della frequenza. Se il timeclamp è inferiore, l'evento nel dominio del tempo è
rappresentato in modo più accurato (come grancassa veloce), altrimenti evento in frequenza
dominio è rappresentato in modo più accurato (come il basso). Il valore accettabile è [0.1,
1.0]. Il valore predefinito è 0.17.

coeff
Specificare il coeffclamp di trasformazione. Se coeffclamp è inferiore, la trasformazione è più accurata,
altrimenti la trasformazione è più veloce. Il valore accettabile è [0.1, 10.0]. Il valore predefinito è 1.0.

gamma
Specificare la gamma. Una gamma più bassa rende lo spettro più contrasto, una gamma più alta rende il
spettro con più portata. Il valore accettabile è [1.0, 7.0]. Il valore predefinito è 3.0.

gamma2
Specificare la gamma del grafico a barre. Il valore accettabile è [1.0, 7.0]. Il valore predefinito è 1.0.

file di font
Specificare il file del carattere da utilizzare con freetype. Se non specificato, usa il carattere incorporato.

colore del carattere
Specificare l'espressione del colore del carattere. Questa è un'espressione aritmetica che dovrebbe restituire
valore intero 0xRRGGBB. L'espressione può contenere variabili:

frequenza, frequenza, f
la frequenza in cui viene valutata la trasformata

temporizzatore, tc
valore dell'opzione timeclamp

e funzioni:

medio(f)
numero midi di frequenza f, alcuni numeri midi: E0(16) C1(24) C2(36) A4(69)

r(x), g(x), b(x)
valore rosso, verde e blu dell'intensità x

Il valore predefinito è "st(0, (midi(f)-59.5)/12); st(1, if(between(ld(0),0,1),
0.5-0.5*cos(2*PI*ld(0)), 0)); R(1 ld(1)) + b(ld(1))"

FullHD
Se impostato su 1 (predefinito), la dimensione del video è 1920x1080 (full HD), se impostato su 0, il
la dimensione del video è 960x540. Utilizzare questa opzione per ridurre l'utilizzo della CPU.

fps Specifica gli fps video. Il valore predefinito è 25.

contare
Specificare il numero di trasformazioni per fotogramma, quindi ci sono fps*count trasformazioni al secondo.
Nota che la velocità dei dati audio deve essere divisibile per fps*count. Il valore predefinito è 6.

Esempi

· Riproduzione dell'audio mentre si mostra lo spettro:

ffplay -f lavfi 'amovie=a.mp3, asplit [a][out1]; [a] showcqt [out0]'

· Come sopra, ma con frame rate di 30 fps:

ffplay -f lavfi 'amovie=a.mp3, asplit [a][out1]; [a] showcqt=fps=30:count=5 [out0]'

· Riproduzione a 960x540 e utilizzo della CPU inferiore:

ffplay -f lavfi 'amovie=a.mp3, asplit [a][out1]; [a] showcqt=fullhd=0:count=3 [out0]'

· La1 e le sue armoniche: LA1, LA2, (vicino) MI3, LA3:

ffplay -f lavfi 'aevalsrc=0.1*sin(2*PI*55*t)+0.1*sin(4*PI*55*t)+0.1*sin(6*PI*55*t)+0.1*sin(8*PI*55*t),
asplit[a][out1]; [a] showcqt [out0]'

· Come sopra, ma con maggiore precisione nel dominio della frequenza (e più lento):

ffplay -f lavfi 'aevalsrc=0.1*sin(2*PI*55*t)+0.1*sin(4*PI*55*t)+0.1*sin(6*PI*55*t)+0.1*sin(8*PI*55*t),
asplit[a][out1]; [a] showcqt=timeclamp=0.5 [out0]'

· Ponderazione B di uguale volume

volume=16*b_ponderazione(f)

· Fattore Q inferiore

tlunghezza=100/f*tc/(100/f+tc)

· Colore del carattere personalizzato, la nota C è di colore verde, gli altri sono di colore blu

fontcolor='if(mod(floor(midi(f)+0.5),12), 0x0000FF, g(1))'

· Gamma personalizzata, ora lo spettro è lineare rispetto all'ampiezza.

gamma=2:gamma2=2

showfreq
Converti l'audio in ingresso in uscita video che rappresenta lo spettro di potenza audio. Audio
l'ampiezza è sull'asse Y mentre la frequenza è sull'asse X.

Il filtro accetta le seguenti opzioni:

dimensione, s
Specifica la dimensione del video. Per la sintassi di questa opzione, controlla il "Video dimensione" pagina
in , il ffmpeg-utils Manuale. L'impostazione predefinita è "1024x512".

modo
Imposta la modalità di visualizzazione. Questo imposta il modo in cui verrà rappresentato ogni bin di frequenza.

Accetta i seguenti valori:

linea
bar
punto

L'impostazione predefinita è "barra".

una scala
Imposta la scala dell'ampiezza.

Accetta i seguenti valori:

lin Scala lineare.

sqrt
Scala radice quadrata.

cbrt
Scala radice cubica.

ceppo Scala logaritmica.

L'impostazione predefinita è "log".

scala
Imposta la scala della frequenza.

Accetta i seguenti valori:

lin Scala lineare.

ceppo Scala logaritmica.

log
Scala logaritmica inversa.

L'impostazione predefinita è "lin".

win_size
Imposta la dimensione della finestra.

Accetta i seguenti valori:

w16
w32
w64
w128
w256
w512
w1024
w2048
w4096
w8192
w16384
w32768
w65536

Il valore predefinito è "w2048"

funzione_win
Imposta la funzione di finestratura.

Accetta i seguenti valori:

rect
Bartlett
impiccare
martellare
uomo nero
Welch
flattop
bharris
matto
bhann
loro
nocciola

L'impostazione predefinita è "hanning".

sovrapposizione
Imposta la sovrapposizione della finestra. Nell'intervallo "[0, 1]". Il valore predefinito è 1, che significa sovrapposizione ottimale per
verrà selezionata la funzione finestra selezionata.

media
Imposta la media temporale. Impostandolo su 0 verranno visualizzati i picchi massimi correnti. L'impostazione predefinita è
1, il che significa che la media temporale è disabilitata.

colore
Specifica l'elenco dei colori separati da uno spazio o da '|' che verrà utilizzato per disegnare il canale
frequenze. I colori non riconosciuti o mancanti verranno sostituiti dal colore bianco.

spettro dello spettacolo
Converti l'audio in ingresso in un'uscita video, che rappresenta lo spettro di frequenza audio.

Il filtro accetta le seguenti opzioni:

dimensione, s
Specificare la dimensione del video per l'output. Per la sintassi di questa opzione, controlla il "Video
dimensione" pagina in , il ffmpeg-utils Manuale. Il valore predefinito è "640x512".

scorrere
Specifica come lo spettro deve scorrere lungo la finestra.

Accetta i seguenti valori:

sostituire
i campioni ripartono a sinistra quando raggiungono la destra

scorrere
i campioni scorrono da destra a sinistra

fotogramma intero
i telai vengono prodotti solo quando i campioni arrivano a destra

Il valore predefinito è "sostituisci".

modo
Specificare la modalità di visualizzazione.

Accetta i seguenti valori:

combinato
tutti i canali sono visualizzati nella stessa riga

separato
tutti i canali sono visualizzati in righe separate

Il valore predefinito è combinato.

colore
Specificare la modalità colore di visualizzazione.

Accetta i seguenti valori:

canale
ogni canale viene visualizzato in un colore separato

l'intensità
ogni canale viene visualizzato utilizzando lo stesso schema di colori

Il valore predefinito è canale.

scala
Specificare la scala utilizzata per calcolare i valori di intensità del colore.

Accetta i seguenti valori:

lin lineare

sqrt
radice quadrata, predefinita

cbrt
radice cubica

ceppo logaritmica

Il valore predefinito è sqrt.

saturazione
Imposta il modificatore di saturazione per i colori visualizzati. I valori negativi forniscono un'alternativa
combinazione di colori. 0 non è affatto saturazione. La saturazione deve essere nell'intervallo [-10.0, 10.0].
Il valore predefinito è 1.

funzione_win
Imposta la funzione della finestra.

Accetta i seguenti valori:

nessuna
Nessuna pre-elaborazione dei campioni (non aspettarti che sia più veloce)

hann
finestra di Hann

martellare
Finestra Hamming

uomo nero
Finestra Blackman

Il valore predefinito è "hann".

L'utilizzo è molto simile al filtro showwaves; vedere gli esempi in quella sezione.

Esempi

· Ampia finestra con scala logaritmica dei colori:

showspectrum=s=1280x480:scala=log

· Esempio completo per uno spettro colorato e scorrevole per canale utilizzando ffplay:

ffplay -f lavfi 'amovie=input.mp3, asplit [a][out1];
[a] showspectrum=mode=separate:color=intensity:slide=1:scale=cbrt [out0]'

volume di spettacolo
Converti il ​​volume audio in ingresso in un'uscita video.

Il filtro accetta le seguenti opzioni:

Vota, r
Imposta la frequenza video.

b Imposta la larghezza del bordo, l'intervallo consentito è [0, 5]. Il valore predefinito è 1.

w Imposta la larghezza del canale, l'intervallo consentito è [40, 1080]. Il valore predefinito è 400.

h Imposta l'altezza del canale, l'intervallo consentito è [1, 100]. Il valore predefinito è 20.

f Imposta dissolvenza, l'intervallo consentito è [1, 255]. Il valore predefinito è 20.

c Imposta l'espressione del colore del volume.

L'espressione può utilizzare le seguenti variabili:

VOLUME
Volume massimo attuale del canale in dB.

CANALE
Numero del canale corrente, a partire da 0.

t Se impostato, visualizza i nomi dei canali. L'impostazione predefinita è abilitata.

showwaves
Converti l'audio in ingresso in un'uscita video, che rappresenta le onde dei campioni.

Il filtro accetta le seguenti opzioni:

dimensione, s
Specificare la dimensione del video per l'output. Per la sintassi di questa opzione, controlla il "Video
dimensione" pagina in , il ffmpeg-utils Manuale. Il valore predefinito è "600x240".

modo
Imposta la modalità di visualizzazione.

I valori disponibili sono:

punto
Disegna un punto per ogni campione.

linea
Traccia una linea verticale per ogni campione.

p2p Disegna un punto per ogni campione e una linea tra di loro.

Cline
Disegna una linea verticale centrata per ogni campione.

Il valore predefinito è "punto".

n Imposta il numero di campioni che vengono stampati sulla stessa colonna. Un valore maggiore sarà
diminuire la frequenza dei fotogrammi. Deve essere un numero intero positivo. Questa opzione può essere impostata solo se
il valore per tasso non è esplicitamente specificato.

Vota, r
Imposta il frame rate di output (approssimativo). Questo viene fatto impostando l'opzione n. Predefinito
il valore è "25".

canali_divisi
Imposta se i canali devono essere disegnati separatamente o sovrapposti. Il valore predefinito è 0.

Esempi

· Emetti contemporaneamente l'audio del file di input e la rappresentazione video corrispondente
tempo:

amovie=a.mp3,asplit[out0],showwaves[out1]

· Crea un segnale sintetico e mostralo con showwaves, forzando un frame rate di 30
fotogrammi al secondo:

aevalsrc=sin(1*2*PI*t)*sin(880*2*PI*t):cos(2*PI*200*t),asplit[out0],showwaves=r=30[out1]

showwavespic
Converti l'audio in ingresso in un singolo fotogramma video, che rappresenta le onde dei campioni.

Il filtro accetta le seguenti opzioni:

dimensione, s
Specificare la dimensione del video per l'output. Per la sintassi di questa opzione, controlla il "Video
dimensione" pagina in , il ffmpeg-utils Manuale. Il valore predefinito è "600x240".

canali_divisi
Imposta se i canali devono essere disegnati separatamente o sovrapposti. Il valore predefinito è 0.

Esempi

· Estrarre una rappresentazione divisa per canale della forma d'onda di un'intera traccia audio in a
Immagine 1024x800 utilizzando ffmpeg:

ffmpeg -i audio.flac -lavfi showwavespic=split_channels=1:s=1024x800 waveform.png

diviso, dividere
Dividi l'input in più output identici.

"asplit" funziona con l'ingresso audio, "split" con il video.

Il filtro accetta un unico parametro che specifica il numero di uscite. Se
non specificato, il valore predefinito è 2.

Esempi

· Creare due output separati dallo stesso input:

[in] dividere [out0][out1]

· Per creare 3 o più uscite, è necessario specificare il numero di uscite, come in:

[in] asplit=3 [out0][out1][out2]

· Creare due output separati dallo stesso input, uno ritagliato e uno imbottito:

[in] diviso [splitout1][splitout2];
[splitout1] crop=100:100:0:0 [cropout];
[splitout2] pad=200:200:100:100 [padout];

· Crea 5 copie dell'audio in ingresso con ffmpeg:

ffmpeg -i INGRESSO -filter_complesso assplit=5 USCITA

mq, azmq
Ricevi i comandi inviati tramite un client libzmq e li inoltra ai filtri nel
grafico filtro.

"zmq" e "azmq" funzionano come filtri pass-through. "zmq" deve essere inserito tra due video
filtri, "azmq" tra due filtri audio.

Per abilitare questi filtri è necessario installare la libreria e gli header libzmq e configurare
FFmpeg con "--enable-libzmq".

Per ulteriori informazioni su libzmq vedere:http://www.zeromq.org/>

I filtri "zmq" e "azmq" funzionano come un server libzmq, che riceve i messaggi inviati tramite
un'interfaccia di rete definita dal bind_indirizzo opzione.

Il messaggio ricevuto deve essere nella forma:

[ ]

TARGET specifica la destinazione del comando, solitamente il nome della classe del filtro o a
nome specifico dell'istanza del filtro.

COMANDO specifica il nome del comando per il filtro di destinazione.

ARG è facoltativo e specifica l'elenco di argomenti facoltativo per il dato COMANDO.

Alla ricezione, il messaggio viene elaborato e il comando corrispondente viene iniettato in
il filtergraph. A seconda del risultato, il filtro invierà una risposta al cliente,
adottando il formato:




MESSAGGIO è facoltativo.

Esempi

Guarda a strumenti/zmqsend per un esempio di client zmq che può essere utilizzato per inviare comandi
elaborati da questi filtri.

Considera il seguente filtergraph generato da ffplay

ffplay -dumpgraph 1 -f lavfi "
color=s=100x100:c=rosso [l];
colore=s=100x100:c=blu [r];
nullsrc=s=200x100, zmq[bg];
[bg][l] sovrapposizione [bg+l];
[bg+l][r] sovrapposizione=x=100 "

Per cambiare il colore del lato sinistro del video, è possibile utilizzare il seguente comando:

echo Parsed_color_0 c giallo | strumenti/zmqsend

Per cambiare il lato destro:

echo Parsed_color_1 c rosa | strumenti/zmqsend

MULTIMEDIA FONTI


Di seguito è riportata una descrizione delle fonti multimediali attualmente disponibili.

un film
Questo è lo stesso di film sorgente, tranne che seleziona un flusso audio per impostazione predefinita.

film
Leggere flussi audio e/o video da un contenitore di film.

Accetta i seguenti parametri:

Nome del file
Il nome della risorsa da leggere (non necessariamente un file; può anche essere un dispositivo o un
flusso a cui si accede tramite un protocollo).

nome_formato, f
Specifica il formato assunto per la lettura del filmato e può essere il nome di a
contenitore o un dispositivo di input. Se non specificato, il formato viene indovinato da nome_film
o sondando.

ricerca_punto, sp
Specifica il punto di ricerca in secondi. I frame verranno emessi a partire da questa ricerca
punto. Il parametro viene valutato con "av_strtod", quindi il valore numerico potrebbe essere
suffisso da un suffisso IS. Il valore predefinito è "0".

flussi, s
Specifica i flussi da leggere. È possibile specificare più flussi, separati da "+". Il
source avrà altrettante uscite, nello stesso ordine. La sintassi è spiegata in
la sezione ``Specifici di flusso'' nel manuale di ffmpeg. Due nomi speciali, "dv" e
"da" specifica rispettivamente il flusso video e audio predefinito (più adatto). L'impostazione predefinita è
"dv", o "da" se il filtro è chiamato "film".

indice_flusso, si
Specifica l'indice del flusso video da leggere. Se il valore è -1, il più adatto
il flusso video verrà selezionato automaticamente. Il valore predefinito è "-1". Deprecato. Se
il filtro si chiama "film", selezionerà l'audio invece del video.

loop
Specifica quante volte leggere il flusso in sequenza. Se il valore è minore di 1,
il flusso verrà letto ancora e ancora. Il valore predefinito è "1".

Nota che quando il film viene riprodotto in loop i timestamp della sorgente non vengono modificati, quindi lo farà
generare timestamp non monotonicamente crescenti.

Consente di sovrapporre un secondo video sopra l'ingresso principale di un filtergraph, come mostrato in
questo grafico:

input -----------> deltapts0 --> overlay --> output
^
|
film --> scala--> deltapts1 -------+

Esempi

· Salta 3.2 secondi dall'inizio del file AVI in.avi e sovrapponilo sopra al
ingresso etichettato "in":

movie=in.avi:seek_point=3.2, scale=180:-1, setpts=PTS-STARTPTS [sopra];
[in] setpts=PTS-STARTPTS [principale];
[main][over] sovrapposizione=16:16 [out]

· Leggere da un dispositivo video4linux2 e sovrapporlo all'ingresso etichettato "in":

movie=/dev/video0:f=video4linux2, scale=180:-1, setpts=PTS-STARTPTS [sopra];
[in] setpts=PTS-STARTPTS [principale];
[main][over] sovrapposizione=16:16 [out]

· Leggere il primo flusso video e il flusso audio con id 0x81 da dvd.vob; il video
è collegato al pad denominato "video" e l'audio è collegato al pad denominato
"Audio":

film=dvd.vob:s=v:0+#0x81 [video] [audio]

Usa i filtri ffmpeg online usando i servizi onworks.net


Server e workstation gratuiti

Scarica app per Windows e Linux

  • 1
    Phaser
    Phaser
    Phaser è un open veloce, gratuito e divertente
    framework di gioco HTML5 di origine che offre
    Rendering WebGL e Canvas attraverso
    browser Web desktop e mobili. Giochi
    può essere co...
    Scarica Phaser
  • 2
    Motore VASSAL
    Motore VASSAL
    VASSAL è un motore di gioco per creare
    versioni elettroniche della scheda tradizionale
    e giochi di carte. Fornisce supporto per
    rendering e interazione dei pezzi di gioco,
    e ...
    Scarica il motore VASSAL
  • 3
    OpenPDF - Fork di iText
    OpenPDF - Fork di iText
    OpenPDF è una libreria Java per la creazione
    e la modifica di file PDF con un LGPL e
    Licenza open source MPL. OpenPDF è il
    LGPL/MPL successore open source di iText,
    un ...
    Scarica OpenPDF - Fork di iText
  • 4
    SAGA GIS
    SAGA GIS
    SAGA - Sistema per Automatizzato
    Analisi Geoscientifiche - è un Geografico
    Software del sistema informativo (GIS) con
    immense capacità per i dati geografici
    elaborazione e ana...
    Scarica SAGA GIS
  • 5
    Toolbox per Java/JTOpen
    Toolbox per Java/JTOpen
    IBM Toolbox per Java / JTOpen è un
    libreria di classi Java che supportano il
    client/server e programmazione internet
    modelli su un sistema che esegue OS/400,
    i5/OS, o...
    Scarica Toolbox per Java/JTOpen
  • 6
    D3.js
    D3.js
    D3.js (o D3 per i documenti basati sui dati)
    è una libreria JavaScript che ti consente
    produrre dati dinamici e interattivi
    visualizzazioni nei browser web. Con D3
    tu...
    Scarica D3.js
  • Di Più "

Comandi Linux

  • 1
    adiff
    adiff
    abidiff - confronta gli ABI dei file ELF
    abidiff confronta il binario dell'applicazione
    Interfacce (ABI) di due librerie condivise
    in formato ELF. Emette un significato
    rapporto...
    Esegui abidif
  • 2
    abidw
    abidw
    abidw - serializza l'ABI di un ELF
    il file abidw legge una libreria condivisa in ELF
    formato ed emette una rappresentazione XML
    del suo ABI all’output standard. IL
    emesso...
    Corri costantemente
  • 3
    copac2xml
    copac2xml
    bibutils - conversione della bibliografia
    utilità...
    Esegui copac2xml
  • 4
    copto
    copto
    copt - ottimizzatore spioncino SYSNOPIS:
    copt file.. DESCRIZIONE: copt è un file
    ottimizzatore spioncino generico. Esso
    legge il codice dal suo input standard e
    scrive un...
    Corri copto
  • 5
    collect_stx_titles
    collect_stx_titles
    collect_stx_titles - raccogli il titolo
    dichiarazioni da documenti Stx...
    Eseguire collect_stx_titles
  • 6
    panca-gatling
    panca-gatling
    panca - benchmark http ...
    Esegui gatling-panca
  • Di Più "

Ad