Informazione

Perché il picco DSC ha una forma a campana?


Sto studiando la Calorimetria a Scansione Differenziale (DSC) e non capisco bene perché la maggior parte delle proteine ​​ha una forma a campana quando la capacità termica è tracciata rispetto alla temperatura.

Inoltre, ti sarei grato se potessi fornire buone fonti su questo argomento (libri, articoli, ecc.).


Questa è solo un'ipotesi, ma probabilmente è perché la misurazione del calore sta effettivamente misurando la somma di molte, molte reazioni molecolari. È un fatto della matematica, piuttosto che delle scienze naturali, che costringe tali fenomeni a seguire approssimativamente curve a campana (cioè funzioni gaussiane). Fondamentalmente, il teorema del limite centrale afferma che se hai molte istanze di stesso variabili (casuali) e calcolarne la media insieme, il risultato apparirà come una curva a campana. Qui, il cambiamento termodinamico locale indotto da una singola molecola proteica, in funzione della temperatura, è presumibilmente quella variabile casuale, poiché il comportamento termodinamico di ciascuna proteina è distribuito approssimativamente in modo simile. La casualità deriva dai movimenti casuali essenzialmente caotici delle molecole.

Vedi qui o qui per saperne di più.


Perché la maggior parte delle curve di distribuzione sono a forma di campana? C'è qualche legge fisica che porta le curve ad assumere quella forma?

Tutti i grafici mostrati di seguito provengono da campi di studio completamente diversi e tuttavia condividono un modello di distribuzione simile.

Perché la maggior parte delle curve di distribuzione sono a campana? C'è qualche legge fisica che porta la curva ad assumere quella forma?

C'è qualche spiegazione in Meccanica Quantistica per questi vari grafici per assumere quella forma?

C'è una spiegazione intuitiva dietro al motivo per cui questi grafici sono a forma di campana?

Di seguito è riportata la curva di distribuzione della velocità di Maxwell, in teoria cinetica dei gas.

Di seguito è riportata la legge di spostamento di Wein, nelle radiazioni termiche.

Di seguito è riportata la distribuzione dell'energia cinetica delle particelle beta nei decadimenti radioattivi.


Altezza di una curva di distribuzione normale

Per una curva 'a campana' di distribuzione normale, si sarebbe pensato che l'altezza dovesse avere un valore ideale. Conoscere questo valore può essere un indicatore rapido per verificare se i dati sono distribuiti normalmente.

Tuttavia, non sono riuscito a trovare il suo valore formale. Nella maggior parte dei luoghi, viene mostrata la forma ma non le misurazioni dell'asse y. http://www.stat.yale.edu/Courses/1997-98/101/normal.htm

In alcuni grafici in cui è menzionato, è 0.4. http://en.wikipedia.org/wiki/File:Normal_Distribution_PDF.svg . Ma nella pagina principale (http://en.wikipedia.org/wiki/Normal_distribution), il valore di 0.4 non è menzionato da nessuna parte.

È questo il valore corretto e qual è la sua base matematica? Grazie per la tua intuizione.

Le tre curve mostrate nella risposta di @Glen_b e nella pagina wiki (con media=0) hanno la stessa media ma SD diverse. Tutti i test mostrerebbero che nessuna differenza significativa tra loro. Ma sono chiaramente di popolazioni diverse. Quale test possiamo quindi applicare per determinare la differenza nelle deviazioni standard di due distribuzioni?

Ho controllato in rete e ho scoperto che era il test F.

Ma esiste un nome specifico per una curva di distribuzione simile a una con media 0 e deviazione standard 1 (e picco a 0,4)?

Risponde Aleksandr Blekh nei commenti: "distribuzione normale standard o distribuzione normale unitaria indicata con N(0,1)".

Tuttavia, non viene sottolineato che, se le medie non sono diverse, si dovrebbe eseguire il test F o il test KS (come suggerito da Glen_b nei commenti) per determinare se le deviazioni standard sono diverse, indicando popolazioni diverse.


Introduzione alla distribuzione normale (curva a campana)

La distribuzione normale è una distribuzione di probabilità continua che è simmetrica su entrambi i lati della media, quindi il lato destro del centro è un'immagine speculare del lato sinistro.

L'area sotto la curva di distribuzione normale rappresenta la probabilità e l'area totale sotto la curva somma a uno.

La maggior parte dei valori di dati continui in una distribuzione normale tende a raggrupparsi attorno alla media e più un valore è lontano dalla media, meno è probabile che si verifichi. Le code sono asintotiche, il che significa che si avvicinano ma non incontrano mai l'orizzonte (cioè l'asse x).

Per una distribuzione perfettamente normale la media, la mediana e la moda saranno lo stesso valore, rappresentato visivamente dal picco della curva.

La distribuzione normale è spesso chiamata curva a campana perché il grafico della sua densità di probabilità sembra una campana. È anche conosciuta come distribuzione gaussiana, dal nome del matematico tedesco Carl Gauss che per primo la descrisse.

Qual è la differenza tra una distribuzione normale e una distribuzione normale standard?

Una distribuzione normale è determinata da due parametri, la media e la varianza. Una distribuzione normale con media 0 e deviazione standard 1 è detta distribuzione normale standard.

Figura 1. Una distribuzione normale standard (SND).

Questa è la distribuzione utilizzata per costruire le tabelle della distribuzione normale.

Perché è importante la distribuzione normale?

La curva a campana è una caratteristica comune della natura e della psicologia

La distribuzione normale è la distribuzione di probabilità più importante nelle statistiche perché molti dati continui in natura e psicologia mostrano questa curva a campana quando vengono compilati e rappresentati graficamente.

Ad esempio, se campionassimo in modo casuale 100 individui, ci aspetteremmo di vedere una normale curva di frequenza di distribuzione per molte variabili continue, come QI, altezza, peso e pressione sanguigna.

I test di significatività parametrica richiedono una distribuzione normale dei punti dati dei campioni

I test statistici (parametrici) più potenti utilizzati dagli psicologi richiedono che i dati siano distribuiti normalmente. Se i dati non assomigliano a una curva a campana, i ricercatori potrebbero dover utilizzare un tipo di test statistico meno potente, chiamato statistica non parametrica.

Conversione dei punteggi grezzi di una distribuzione normale in punteggi z

Possiamo standardizzare i valori (punteggi grezzi) di una distribuzione normale convertendoli in punteggi z.

Questa procedura consente ai ricercatori di determinare la proporzione dei valori che rientrano in un numero specificato di deviazioni standard dalla media (cioè calcolare la regola empirica).

Probabilità e curva normale: qual è la formula della regola empirica?

La regola empirica in statistica consente ai ricercatori di determinare la proporzione di valori che rientrano in determinate distanze dalla media. La regola empirica viene spesso definita regola dei tre sigma o regola 68-95-99,7.

Se i valori dei dati in una distribuzione normale vengono convertiti in punteggio standard (z-score) in una distribuzione normale standard, la regola empirica descrive la percentuale dei dati che rientrano in numeri specifici di deviazioni standard (σ) dalla media (μ) per curve a campana.

La regola empirica consente ai ricercatori di calcolare la probabilità di ottenere casualmente un punteggio da una distribuzione normale.

Il 68% dei dati rientra nella prima deviazione standard dalla media. Ciò significa che esiste una probabilità del 68% di selezionare casualmente un punteggio tra -1 e +1 deviazioni standard dalla media.

Il 95% dei valori rientra in due deviazioni standard dalla media. Ciò significa che esiste una probabilità del 95% di selezionare casualmente un punteggio tra -2 e +2 deviazioni standard dalla media.

Il 99,7% dei dati rientrerà in tre deviazioni standard dalla media. Ciò significa che esiste una probabilità del 99,7% di selezionare casualmente un punteggio tra -3 e +3 deviazioni standard dalla media.

Come posso verificare se i miei dati seguono una distribuzione normale?

È possibile utilizzare software statistici (come SPSS) per verificare se il proprio set di dati è distribuito normalmente calcolando le tre misure di tendenza centrale. Se la media, la mediana e la moda sono valori molto simili, c'è una buona probabilità che i dati seguano una distribuzione a campana (comando SPSS qui).

È consigliabile anche un grafico della frequenza, così puoi controllare la forma visiva dei tuoi dati (se il tuo grafico è un istogramma, puoi aggiungere una curva di distribuzione usando SPSS: Dai menu scegli: Elementi > Mostra curva di distribuzione).

Le distribuzioni normali diventano più evidenti (cioè perfette) quanto più fine è il livello di misurazione e quanto più grande è il campione di una popolazione.

Puoi anche calcolare coefficienti che ci dicono la dimensione delle code di distribuzione in relazione all'urto nel mezzo della curva a campana. Ad esempio, i test di Kolmogorov Smirnov e Shapiro-Wilk possono essere calcolati utilizzando SPSS.

Questi test confrontano i tuoi dati con una distribuzione normale e forniscono un valore p, che se significativo (p < .05) indica che i tuoi dati sono diversi da una distribuzione normale (quindi, in questa occasione non vogliamo un risultato significativo e abbiamo bisogno di un P-valore maggiore di 0,05).

Come fare riferimento a questo articolo:

Come fare riferimento a questo articolo:

McLeod, SA (2019, 28 maggio). Introduzione alla distribuzione normale (curva a campana). Semplicemente psicologia: https://www.simplypsychology.org/normal-distribution.html

Quest'opera è distribuita con licenza Creative Commons Attribuzione-Non commerciale-Non opere derivate 3.0 Unported.

Numero di registrazione della società: 10521846


9 esempi di vita reale di distribuzione normale

La distribuzione normale è ampiamente utilizzata per comprendere le distribuzioni dei fattori nella popolazione. Poiché la distribuzione normale si avvicina così bene a molti fenomeni naturali, è diventata uno standard di riferimento per molti problemi di probabilità.

La distribuzione normale/gaussiana è un grafico a forma di campana che comprende due termini di base: media e deviazione standard. È una disposizione simmetrica di un set di dati in cui la maggior parte dei valori si raggruppa nella media e il resto si assottiglia simmetricamente verso entrambi gli estremi. Numerosi fattori genetici e ambientali influenzano il carattere.

Teorema del limite centrale

La distribuzione normale segue la teoria del limite centrale che afferma che vari fattori indipendenti influenzano un particolare tratto. Quando tutti questi fattori indipendenti contribuiscono a un fenomeno, la loro somma normalizzata tende a produrre una distribuzione gaussiana.

Curva normale

La media della distribuzione determina la posizione del centro del grafico e la deviazione standard determina l'altezza e la larghezza del grafico e l'area totale sotto la curva normale è uguale a 1.

Cerchiamo di comprendere gli esempi di vita quotidiana della distribuzione normale.

1. Altezza

L'altezza della popolazione è l'esempio della distribuzione normale. La maggior parte delle persone in una popolazione specifica sono di altezza media. Il numero di persone più alte e più basse delle persone di altezza media è quasi uguale e un numero molto piccolo di persone è estremamente alto o estremamente basso. Tuttavia, l'altezza non è una caratteristica singola, diversi fattori genetici e ambientali influenzano l'altezza. Pertanto, segue la distribuzione normale.

2. Tirare un dado

Un buon lancio dei dadi è anche un buon esempio di distribuzione normale. In un esperimento, è stato scoperto che quando un dado viene lanciato 100 volte, le probabilità di ottenere 𔃱’ sono del 15-18% e se lanciamo i dadi 1000 volte, le probabilità di ottenere 𔃱’ sono, di nuovo, lo stesso, che si attesta in media al 16,7% (1/6). Se lanciamo due dadi contemporaneamente, ci sono 36 possibili combinazioni. La probabilità di ottenere 𔃱’ (con sei possibili combinazioni) è di nuovo in media intorno al 16,7%, ovvero (6/36). Più il numero di dadi sarà elaborato più sarà il grafico di distribuzione normale.

3. Lanciare una moneta

Lanciare una moneta è uno dei metodi più antichi per risolvere le controversie. Tutti abbiamo lanciato una moneta prima di una partita o di una partita. L'equità percepita nel lanciare una moneta sta nel fatto che ha uguali possibilità di ottenere entrambi i risultati. Le probabilità di ottenere testa sono 1/2, e lo stesso vale per la croce. Quando aggiungiamo entrambi, è uguale a uno. Se lanciamo più volte le monete, la somma delle probabilità di ottenere testa e croce rimarrà sempre 1.

4. QI

In questo scenario di crescente concorrenza, la maggior parte dei genitori, così come i bambini, vogliono analizzare il livello del quoziente intelligente. Bene, il QI di una particolare popolazione è una normale curva di distribuzione in cui il QI della maggioranza delle persone nella popolazione si trova nell'intervallo normale mentre il QI del resto della popolazione si trova nell'intervallo deviato.

5. Mercato azionario tecnico

La maggior parte di noi ha sentito parlare dell'aumento e della diminuzione dei prezzi delle azioni nel mercato azionario.

i nostri genitori o nelle notizie sulla caduta e l'aumento del prezzo delle azioni. Questi cambiamenti nei valori di registro dei tassi Forex, degli indici di prezzo e dei prezzi delle azioni spesso formano una curva a campana. Per i rendimenti azionari, la deviazione standard è spesso chiamata volatilità. Se i rendimenti sono distribuiti normalmente, si prevede che più del 99 percento dei rendimenti rientri negli scostamenti del valore medio. Tali caratteristiche della distribuzione normale a campana consentono ad analisti e investitori di fare inferenze statistiche sul rendimento atteso e sul rischio delle azioni.

6. Distribuzione del reddito in economia

Il reddito di un paese è nelle mani di una politica e di un governo duraturi. Dipende da loro come distribuiscono il reddito tra la comunità ricca e povera. Siamo tutti ben consapevoli del fatto che la popolazione della classe media è un po' più alta della popolazione ricca e povera. Quindi, il salario della popolazione della classe media fa la media nella normale curva di distribuzione.

7. Misura delle scarpe

Vi siete chiesti cosa sarebbe successo se la scarpetta di vetro lasciata da Cenerentola nella casa del principe si fosse adattata ai piedi di un'altra donna? Avrebbe finito per sposare un'altra donna. È stata una delle ipotesi divertenti che tutti noi abbiamo mai incontrato. Secondo i dati raccolti negli Stati Uniti, le vendite di scarpe femminili per taglia sono normalmente distribuite perché la composizione fisica della maggior parte delle donne è quasi la stessa.

8. Peso alla nascita

Il peso normale alla nascita di un neonato varia da 2,5 a 3,5 kg. La maggior parte dei neonati ha un peso alla nascita normale mentre solo una piccola percentuale di neonati ha un peso superiore o inferiore alla norma. Quindi, anche il peso alla nascita segue la normale curva di distribuzione.

9. Rapporto sulla media degli studenti

Al giorno d'oggi, le scuole pubblicizzano le loro performance sui social media e in TV. Presentano il risultato medio della loro scuola e invogliano i genitori a far iscrivere il proprio figlio a quella scuola. Le autorità scolastiche calcolano il rendimento scolastico medio di tutti gli studenti e, nella maggior parte dei casi, segue la normale curva di distribuzione. Il numero di studenti intelligenti medi è più alto della maggior parte degli altri studenti.


Sfondo

Le reti biochimiche hanno una struttura modulare [1]. I moduli funzionali hanno diverse proprietà dinamiche e input-output [2, 3]. Ad esempio, i circuiti di feedback positivo possono produrre bistabilità mentre i circuiti di feedback negativo filtrano il rumore. Un importante modulo biochimico nella segnalazione cellulare è un ciclo di fosforilazione-defosforilazione (PDC). La fosforilazione è una comune modificazione covalente post-traduzionale di proteine ​​e lipidi, che è mediata dalle chinasi e necessita dell'ATP per procedere. Tuttavia, la defosforilazione è mediata dalle fosfatasi e non necessita di ATP per procedere. La fosforilazione può influenzare le proprietà di legame, la localizzazione e l'attività di proteine ​​e recettori [4].

I sistemi con cicli di fosforilazione-defosforilazione possono esibire una varietà di comportamenti input-output o dose-risposta [5]. Il livello di substrato fosforilato allo stato stazionario è controllato dal bilancio chinasi-fosfatasi (KPB), cioè il rapporto tra la chinasi attiva totale e la concentrazione di fosfatasi attiva. Se gli enzimi sono lontani dalla saturazione, il livello di substrato fosforilato è una funzione graduata del KPB. Tuttavia, se gli enzimi sono saturi e operano in regime di ordine zero, si ottiene una risposta di tipo switch ultrasensibile in cui un piccolo cambiamento nel KPB può produrre un grande cambiamento nel livello del substrato fosforilato [6]. Piccole modifiche alla struttura di questi moduli biochimici, come l'introduzione della cooperatività o l'inibizione del prodotto, possono influenzare significativamente le loro proprietà dinamiche [7, 8]. Cascate di cicli di fosforilazione-defosforilazione come le cascate di MAP chinasi producono anche ultrasensibilità e amplificazione [5]. La fosforilazione proteica multisito con meccanismo distributivo può produrre una robusta ultrasensibilità [9]-[11]. I sistemi con più siti di fosforilazione possono esibire proprietà dinamiche aggiuntive inclusa la multistabilità [12, 13]. La fosforilazione multisito può anche tradursi in una robusta ultrasensibilità al di fuori del regime di ordine zero attraverso la saturazione locale [14, 15]. Inoltre, l'ordine e la distributività della fosforilazione influenzano le proprietà di risposta del sistema [4].

Durante il traffico degli endosomi, le molecole di marcatura che specificano l'identità e il destino delle diverse vescicole devono essere strettamente regolate nel tempo. Due classi di molecole che hanno un ruolo fondamentale come tag molecolari nel traffico di membrana sono le piccole GTPasi ei fosfopinositidi (PI) [16]. I PI sono un tipo di fosfolipidi cellulari che possono subire cicli di fosforilazione-defosforilazione. Sebbene i PI siano presenti in abbondanza relativamente bassa, hanno ruoli importanti nella regolazione cellulare e nel traffico di membrana [17, 18]. In particolare, i PI possono essere fosforilati nelle posizioni 3, 4 e 5 del loro gruppo di testa dell'inositolo, attraverso chinasi e fosfatasi specifiche degli organelli [17, 18]. È interessante notare che diverse coppie di chinasi e fosfatasi antagoniste che regolano la fosforilazione nei PI formano complessi (Figura 1). Poiché queste coppie di complessi kinasi-fosfatasi hanno effetti opposti, la formazione di questo tipo di complessi tra di loro è sconcertante e il loro significato funzionale non è chiaro. Ad esempio, la chinasi Vps34 genera PI(3)P sugli endosomi fosforilando la terza posizione del gruppo di testa dell'inositolo PI ed è regolata dalla proteina chinasi Vps15 [19]. Cao et al. [20, 21] hanno dimostrato che anche il sottocomplesso Vps34-Vps15 potrebbe interagire in vivo e in vitro con le fosfatasi antagoniste dirette MTM1 e MTMR2, dove Vps15 media l'interazione tra la Vps34 e le isoforme di miotubularina.

Complessi chinasi-fosfatasi. Complessi chinasi-fosfatasi identificati o ipotizzati nel sistema di regolazione del PI. La linea completa rappresenta in vivo e linea tratteggiata in vitro prova. I dati si basano sul riferimento [22].

Un altro esempio di coppia chinasi-fosfatasi antagonista nel lievito e nei mammiferi è la Fab1 PI(5)P 5-chinasi (chiamata anche PIP5K3 o 'PIKfyve') e la Fig4 PI(3,5)P25-fosfatasi (chiamata anche Sac3) [23]-[25]. Inoltre, è stata anche ipotizzata l'esistenza di due nuovi complessi chinasi-fosfatasi che giocano un ruolo nella regolazione di PI(5)P [22]. In particolare, è stato proposto che un complesso PIK3C (class-I PI 3-chinasi) e miotubularina regoli l'interconversione tra PI(3,5)P2 e PI(5)P [22].Meno si sa delle 4-chinasi PIP5K2 e PI(4,5)P2 4-fosfatasi che regolano l'interconversione tra PI(4,5)P2 e PI(5)P, tuttavia, è stata anche ipotizzata l'esistenza di un corrispondente complesso chinasi-fosfatasi [22]. Le coppie chinasi-fosfatasi identificate e ipotizzate sono riassunte nella Figura 1. In sintesi, vi è una crescente evidenza che un certo numero di chinasi e fosfatasi possono formare un complesso, ma il ruolo esatto di tale duo chinasi-fosfatasi resta da indagare [ 26]. Inoltre, ci sono alcune prove che questo tipo di formazione complessa è conservata evolutivamente, il che suggerisce un significato funzionale [22]. Un'appropriata modellazione matematica può far luce sui ruoli funzionali di questi complessi.

In questo articolo, utilizziamo la modellazione matematica per studiare la dose-risposta in un ciclo esteso di fosforilazione-defosforilazione che include la formazione complessa tra la chinasi e la fosfatasi. In particolare, ci chiediamo in quali condizioni i PDC possono esibire una dose-risposta non monotona. A tal fine, rivisitiamo prima il PDC di base (Figura 2a) e mostriamo che, a seconda dei parametri del sistema, è possibile ottenere solo una fosforilazione parziale del substrato anche per KPB di grandi dimensioni. Utilizziamo quindi questi risultati per perfezionare le stime dell'ultrasensibilità di ordine zero. Mostriamo inoltre che a un equilibrio fisso chinasi-fosfatasi, se cambiamo i livelli di substrato, è possibile ottenere una dose-risposta a campana non monotona. Tuttavia, questo comportamento si ottiene solo su un intervallo ristretto di parametri.

Diagrammi delle reazioni. (un) Diagramma di reazione per il modello base del ciclo fosforilazione-defosforilazione. (b-e) Diagrammi di reazione per il modello esteso con formazione del complesso chinasi-fosfatasi. Il complesso può avere attività chinasica e/o fosfatasica. Le lettere grigie nel nome del complesso enzimatico corrispondono agli enzimi inattivi. Ci sono quattro varianti del modello esteso con complesso enzimatico che hanno entrambi inattivi K e P (B), attivo P e inattivo K (C), attivo K e inattivo P (D) ed entrambi attivi K e P (e).

Per studiare le proprietà di PDC con formazione di complessi, dobbiamo assumere l'attività enzimatica del complesso chinasi-fosfatasi. Pertanto, studiamo quattro diverse varianti del modulo PDC esteso, in cui il complesso mostra attività chinasi e/o fosfatasi (Figura 2b-e). Osserviamo che il modulo può produrre una risposta ultrasensibile al di fuori del regime di ordine zero. Inoltre, osserviamo robuste risposte dose-risposte non monotoniche a campana in una variante del modulo in cui il complesso ha attività fosfatasica. Infine, discutiamo i nostri risultati nel contesto della regolamentazione PI e del traffico di endosomi.


Contenuti

La curva a campana, pubblicato nel 1994, è stato scritto da Richard Herrnstein e Charles Murray per spiegare le variazioni dell'intelligenza nella società americana, avvertire di alcune conseguenze di tale variazione e proporre politiche sociali per mitigare le peggiori conseguenze. Il titolo del libro deriva dalla distribuzione normale a forma di campana dei punteggi del quoziente di intelligenza (QI) in una popolazione.

Introduzione Modifica

Il libro inizia con un'introduzione che valuta la storia del concetto di intelligenza da Francis Galton ai tempi moderni. L'introduzione di Spearman del fattore generale dell'intelligenza e altri primi progressi nella ricerca sull'intelligenza sono discussi insieme a una considerazione dei collegamenti tra test di intelligenza e politica razziale. Gli anni '60 sono identificati come il periodo della storia americana in cui i problemi sociali venivano sempre più attribuiti a forze esterne all'individuo. Questo ethos egualitario, sostengono Herrnstein e Murray, non può accogliere differenze individuali su base biologica. [1]

L'introduzione afferma sei delle ipotesi degli autori, che affermano essere "al di là di significative controversie tecniche": [2]

  1. C'è una tale differenza come un fattore generale di capacità cognitiva su cui differiscono gli esseri umani.
  2. Tutti i test standardizzati di attitudine o rendimento accademico misurano questo fattore generale in una certa misura, ma i test del QI espressamente progettati per questo scopo lo misurano in modo più accurato.
  3. I punteggi del QI corrispondono, in primo luogo, a qualunque cosa le persone intendano quando usano la parola intelligente o intelligente nel linguaggio comune.
  4. I punteggi del QI sono stabili, anche se non perfettamente, per gran parte della vita di una persona.
  5. I test del QI correttamente amministrati non sono palesemente prevenuti contro i gruppi sociali, economici, etnici o razziali.
  6. La capacità cognitiva è sostanzialmente ereditabile, apparentemente non meno del 40 percento e non più dell'80 percento.

Alla fine dell'introduzione, gli autori mettono in guardia il lettore dal commettere l'errore ecologico di inferire cose sugli individui sulla base dei dati aggregati presentati nel libro. Asseriscono anche che l'intelligenza è solo uno dei tanti attributi umani di valore e uno la cui importanza tra le virtù umane è sopravvalutata. [1]

Parte I. L'emergere di un'élite cognitiva Modifica

Nella prima parte del libro Herrnstein e Murray illustrano come si è trasformata la società americana nel XX secolo. Sostengono che l'America si è evoluta da una società in cui l'origine sociale determinava in gran parte il proprio status sociale a una in cui l'abilità cognitiva è il principale determinante dello status. La crescita della frequenza al college, un reclutamento più efficiente delle capacità cognitive e l'ordinamento delle capacità cognitive da parte dei college selettivi sono identificati come importanti fattori trainanti di questa evoluzione. Viene discusso l'aumento dell'ordinamento professionale per capacità cognitiva. Si sostiene, sulla base di meta-analisi pubblicate, che l'abilità cognitiva è il miglior predittore della produttività dei lavoratori. [1]

Herrnstein e Murray sostengono che a causa dell'aumento dei rendimenti delle capacità cognitive, in America si sta formando un'élite cognitiva. Questa élite sta diventando sempre più ricca e progressivamente più segregata dal resto della società. [1]

Seconda parte. Classi cognitive e comportamento sociale Modifica

La seconda parte descrive come l'abilità cognitiva è correlata ai comportamenti sociali: un'alta abilità predice un comportamento socialmente desiderabile, una bassa abilità un comportamento indesiderabile. Si sostiene che le differenze di gruppo nei risultati sociali siano meglio spiegate dalle differenze di intelligenza piuttosto che dallo stato socioeconomico, una prospettiva, sostengono gli autori, che è stata trascurata nella ricerca. [1]

Le analisi riportate in questa parte del libro sono state effettuate utilizzando i dati del National Longitudinal Survey of Labour Market Experience of Youth (NLSY), uno studio condotto dal Bureau of Labor Statistics del Dipartimento del Lavoro degli Stati Uniti che traccia migliaia di americani a partire dagli anni '80. . Solo i bianchi non ispanici sono inclusi nelle analisi in modo da dimostrare che le relazioni tra capacità cognitive e comportamento sociale non sono guidate da razza o etnia. [1]

Herrnstein e Murray sostengono che l'intelligenza è un predittore migliore dei risultati degli individui rispetto allo stato socioeconomico dei genitori. Questo argomento si basa su analisi in cui è dimostrato che i punteggi del QI degli individui predicono meglio i loro risultati da adulti rispetto allo stato socioeconomico dei loro genitori. Tali risultati sono riportati per molti risultati, tra cui povertà, abbandono scolastico, disoccupazione, matrimonio, divorzio, illegittimità, dipendenza dal welfare, reati criminali e probabilità di voto alle elezioni. [1]

Tutti i partecipanti alla NLSY hanno sostenuto l'Armed Services Vocational Aptitude Battery (ASVAB), una batteria di dieci test effettuati da tutti coloro che fanno domanda per l'ingresso nelle forze armate. (Alcuni avevano sostenuto un test del QI al liceo e la correlazione mediana tra i punteggi del test di qualificazione delle forze armate (AFQT) e quei punteggi del test del QI era di 0,81). I partecipanti sono stati successivamente valutati per i risultati sociali ed economici. In generale, i punteggi IQ/AFQT erano un predittore migliore degli esiti della vita rispetto al background di classe sociale. Allo stesso modo, dopo aver controllato statisticamente le differenze nel QI, molte differenze di risultato tra i gruppi etnici razziali sono scomparse. [ citazione necessaria ]

Correlati economici e sociali del QI
QI <75 75–90 90–110 110–125 >125
Distribuzione della popolazione degli Stati Uniti 5 20 50 20 5
Sposato da 30 anni 72 81 81 72 67
Fuori forza lavoro più di 1 mese all'anno (uomini) 22 19 15 14 10
Disoccupato da più di 1 mese all'anno (uomini) 12 10 7 7 2
Divorziato in 5 anni 21 22 23 15 9
% di bambini con QI nel decile inferiore (madri) 39 17 6 7
Ha avuto un figlio illegittimo (madri) 32 17 8 4 2
Vive in povertà 30 16 6 3 2
Mai incarcerato (uomini) 7 7 3 1 0
Beneficiari cronici di assistenza sanitaria (madri) 31 17 8 2 0
Abbandono del liceo 55 35 6 0.4 0
Punteggio "Sì" su "Indice dei valori della classe media" [c 1] 16 30 50 67 74

I valori sono la percentuale di ciascuna sottopopolazione QI, solo tra i bianchi non ispanici, che corrisponde a ciascun descrittore. [4]

  1. ^ Secondo Herrnstein e Murray, il "Middle Class Values ​​Index" aveva lo scopo di "identificare tra la popolazione NLSY, nella loro giovane età adulta quando l'indice è stato valutato, quelle persone che vanno d'accordo con le loro vite in modi che si adattano allo stereotipo della classe media ." Per ottenere un punteggio "Sì" nell'indice, un soggetto NLSY doveva soddisfare tutti e quattro i seguenti criteri:
    • Ho conseguito almeno un diploma di scuola media superiore
    • Mai intervistato durante la detenzione
    • Ancora sposato con il primo coniuge
    • Solo uomini: Nella forza lavoro, anche se non occupata
    • Solo donne: Mai partorito fuori dal matrimonio
    Esclusi dall'analisi sono stati gli individui mai sposati che hanno soddisfatto tutti gli altri componenti dell'indice e gli uomini che non erano nel mondo del lavoro nel 1989 o nel 1990 a causa di disabilità o frequentavano ancora la scuola. [3]

Parte III. Il contesto nazionale Modifica

Questa parte del libro discute le differenze etniche nelle capacità cognitive e nel comportamento sociale. Herrnstein e Murray riferiscono che gli americani asiatici hanno un QI medio più alto rispetto ai bianchi americani, che a loro volta superano i neri americani. Il libro sostiene che il divario bianco-nero non è dovuto a bias di test, osservando che i test del QI non tendono a sottovalutare le prestazioni scolastiche o lavorative degli individui di colore e che il divario è maggiore su elementi di test apparentemente culturalmente neutri rispetto a quelli più culturalmente caricati. Oggetti. Gli autori notano anche che l'adeguamento per lo stato socioeconomico non elimina il divario QI bianco-nero. Tuttavia, sostengono che il divario si sta riducendo. [1]

Secondo Herrnstein e Murray, l'elevata ereditabilità del QI all'interno delle razze non significa necessariamente che la causa delle differenze tra le razze sia genetica. D'altra parte, discutono le linee di prova che sono state utilizzate per supportare la tesi che il divario bianco-nero è almeno in parte genetico, come l'ipotesi di Spearman. Discutono anche possibili spiegazioni ambientali del divario, come gli aumenti generazionali osservati nel QI, per i quali coniano il termine effetto Flynn. Alla fine di questa discussione, scrivono: [1]

Se il lettore è ora convinto che la spiegazione genetica o ambientale ha vinto a esclusione dell'altra, non abbiamo fatto un lavoro sufficientemente buono nel presentare una parte o l'altra. Ci sembra molto probabile che sia i geni che l'ambiente abbiano qualcosa a che fare con le differenze razziali. Quale potrebbe essere il mix? Siamo decisamente agnostici su tale questione per quanto possiamo determinare, l'evidenza non giustifica ancora una stima.

Gli autori sottolineano inoltre che, indipendentemente dalle cause delle differenze, le persone non dovrebbero essere trattate diversamente. [1]

Nella parte III, gli autori ripetono anche molte delle analisi della parte II, ma ora confrontano i bianchi con i neri e gli ispanici nel set di dati NLSY. Scoprono che dopo aver controllato il QI, molte differenze nei risultati sociali tra le razze sono diminuite. [1]

Gli autori discutono la possibilità che alti tassi di natalità tra quelli con QI più basso possano esercitare una pressione al ribasso sulla distribuzione nazionale delle capacità cognitive. Sostengono che anche l'immigrazione può avere un effetto simile. [1]

Alla fine della Parte III, Herrnstein e Murray discutono la relazione del QI con i problemi sociali. Usando i dati NLSY, sostengono che i problemi sociali sono una funzione monotona decrescente del QI, [1] in altre parole a punteggi QI più bassi la frequenza dei problemi sociali aumenta.

Vivere insieme Modifica

In questo capitolo finale, gli autori discutono l'importanza dell'abilità cognitiva per comprendere le principali questioni sociali in America. [1]

Vengono esaminate le prove dei tentativi sperimentali di aumentare l'intelligenza. Gli autori concludono che attualmente non ci sono mezzi per aumentare l'intelligenza di un grado più che modesto. [1]

Gli autori criticano il "livellamento" dell'istruzione generale e secondaria e difendono l'istruzione dotata. Offrono una panoramica critica delle politiche di azione affermativa nei college e nei luoghi di lavoro, sostenendo che il loro obiettivo dovrebbe essere l'uguaglianza di opportunità piuttosto che la parità di risultati. [1]

Herrnstein e Murray offrono un ritratto pessimistico del futuro dell'America. Prevedono che un'élite cognitiva si isolerà ulteriormente dal resto della società, mentre la qualità della vita si deteriora per coloro che si trovano in fondo alla scala cognitiva. Come antidoto a questa prognosi, offrono una visione della società in cui le differenze di capacità sono riconosciute e tutti possono avere un posto di valore, sottolineando il ruolo delle comunità locali e regole morali chiare che si applicano a tutti. [1]

Raccomandazioni politiche Modifica

Herrnstein e Murray hanno sostenuto che il QI genetico medio degli Stati Uniti è in declino, a causa della tendenza dei più intelligenti ad avere meno figli dei meno intelligenti, della durata della generazione più breve per i meno intelligenti e dell'immigrazione su larga scala verso il Stati Uniti di quelli con scarsa intelligenza. Discutendo di un possibile futuro esito politico di una società intellettualmente stratificata, gli autori hanno affermato che "temono che un nuovo tipo di conservatorismo stia diventando l'ideologia dominante dei ricchi, non nella tradizione sociale di un Edmund Burke o nella tradizione economica di un Adam Smith ma 'conservatorismo' lungo le linee latinoamericane, dove essere conservatori ha spesso significato fare tutto il necessario per preservare le ville sulle colline dalla minaccia dei bassifondi sottostanti". [5] Inoltre, temono che l'aumento del benessere creerà uno "stato di custodia" in "una versione high-tech e più lussuosa della riserva indiana per una sostanziale minoranza della popolazione della nazione". Prevedono anche un crescente totalitarismo: "È difficile immaginare che gli Stati Uniti conservino il loro patrimonio di individualismo, pari diritti davanti alla legge, persone libere che gestiscono la propria vita, una volta accettato che una parte significativa della popolazione debba essere resa permanente degli Stati». [6]

Gli autori hanno raccomandato l'eliminazione delle politiche di welfare che sostengono incoraggino le donne povere ad avere bambini. [7]

La curva a campana ricevuto una grande attenzione da parte dei media. Il libro non è stato distribuito in anticipo ai media, ad eccezione di alcuni revisori selezionati scelti da Murray e dall'editore, che hanno ritardato le critiche più dettagliate per mesi e anni dopo l'uscita del libro. [8] Stephen Jay Gould, recensendo il libro in Il newyorkese, ha affermato che il libro "non contiene argomenti nuovi e non presenta dati convincenti a sostegno del suo anacronistico darwinismo sociale" e ha affermato che "gli autori omettono i fatti, abusano dei metodi statistici e sembrano riluttanti ad ammettere le conseguenze delle proprie parole". [9]

Un articolo del 1995 dello scrittore di Fairness and Accuracy in Reporting Jim Naureckas ha criticato la risposta dei media, affermando che "Mentre molte di queste discussioni includevano aspre critiche al libro, i resoconti dei media hanno mostrato una tendenza inquietante ad accettare le premesse e le prove di Murray e Herrnstein anche mentre discutevano le loro conclusioni». [10]

Dopo che i revisori hanno avuto più tempo per rivedere la ricerca e le conclusioni del libro, iniziano a comparire critiche più significative. [8] Nicholas Lemann, scrivendo in Ardesia, ha affermato che le recensioni successive hanno mostrato che il libro era "pieno di errori che vanno dal ragionamento sciatto alle citazioni errate delle fonti fino a veri e propri errori matematici". [8] Lemann ha detto che "Non sorprende che tutti gli errori siano nella direzione di sostenere la tesi degli autori". [8]

Revisione tra pari Modifica

Herrnstein e Murray non hanno sottoposto il loro lavoro a revisione paritaria prima della pubblicazione, un'omissione che molti hanno visto come incompatibile con la loro presentazione come testo accademico. [8] [11] Nicholas Lemann ha notato che il libro non è stato distribuito in bozze, una pratica comune per consentire a potenziali revisori e professionisti dei media l'opportunità di prepararsi per l'arrivo del libro. [8]

Cinquantadue professori, la maggior parte dei quali ricercatori in intelligence e campi correlati, hanno firmato "Mainstream Science on Intelligence", [12] una dichiarazione di opinione che avalla una serie di punti di vista presentati in La curva a campana. La dichiarazione è stata scritta dalla psicologa Linda Gottfredson e pubblicata su Il giornale di Wall Street nel 1994 e successivamente ristampato in Intelligenza, rivista accademica. Dei 131 invitati per posta a firmare il documento, 100 hanno risposto, 52 dei quali hanno accettato di firmare e 48 hanno rifiutato. Undici dei 48 che hanno rifiutato di firmare hanno affermato che la dichiarazione o parte di essa non rappresentava la visione tradizionale dell'intelligence. [12] [13]

Rapporto della task force APA Modifica

In risposta alla controversia che circonda La curva a campana, il Board of Scientific Affairs dell'American Psychological Association ha istituito una task force speciale per pubblicare un rapporto investigativo incentrato esclusivamente sulla ricerca presentata nel libro, non necessariamente sulle raccomandazioni politiche che sono state fatte. [14]

Per quanto riguarda le spiegazioni per le differenze razziali, la task force dell'APA ha dichiarato:

La causa di tale differenziale non è nota, a quanto pare non è dovuta ad alcuna semplice forma di parzialità nel contenuto o nella somministrazione dei test stessi. L'effetto Flynn mostra che i fattori ambientali possono produrre differenze di almeno questa grandezza, ma questo effetto è di per sé misterioso. Sono state proposte diverse spiegazioni basate sulla cultura del differenziale del QI nero/bianco, alcune sono plausibili, ma finora nessuna è stata definitivamente supportata. C'è ancora meno supporto empirico per un'interpretazione genetica. In breve, al momento non è disponibile una spiegazione adeguata del differenziale tra le medie del QI di neri e bianchi.

La rivista APA che ha pubblicato la dichiarazione, Psicologa americana, ha successivamente pubblicato undici risposte critiche nel gennaio 1997. [15]

Molte critiche sono state raccolte nel libro Il dibattito sulla curva a campana.

Ipotesi Modifica

Critica di Stephen Jay Gould Modifica

Stephen Jay Gould ha scritto che "l'intero argomento" degli autori di La curva a campana si basa su quattro ipotesi non supportate, e per lo più false, sull'intelligenza: [9] [16]

  1. L'intelligenza deve essere riducibile a un solo numero.
  2. L'intelligenza deve essere in grado di classificare le persone in un ordine lineare.
  3. L'intelligenza deve essere principalmente basata geneticamente.
  4. L'intelligenza deve essere essenzialmente immutabile.

In un'intervista del 1995 con Frank Miele di Scettico, Murray ha negato di aver fatto ciascuna di queste quattro ipotesi. [17]

Critica di James Heckman Modifica

L'economista premio Nobel James Heckman considera discutibili due ipotesi fatte nel libro: che G tiene conto della correlazione tra i punteggi dei test e le prestazioni nella società e che G non può essere manipolato. La rianalisi di Heckman delle prove utilizzate in La curva a campana trovato contraddizioni:

  1. I fattori che spiegano i salari ricevono pesi diversi rispetto ai fattori che spiegano i punteggi dei test. Più di G è tenuto a spiegare entrambi.
  2. Altri fattori oltre G contribuiscono alla performance sociale e possono essere manipolati. [18]

In risposta, Murray ha sostenuto che questo era un uomo di paglia e che il libro non lo sostiene G o QI sono totalmente immutabili o gli unici fattori che influenzano i risultati. [19]

In un'intervista del 2005, Heckman ha elogiato La curva a campana per aver infranto "un tabù mostrando che le differenze di abilità esistevano e prevedevano una varietà di risultati socioeconomici" e per aver giocato "un ruolo molto importante nel sollevare la questione delle differenze di abilità e della loro importanza" e ha dichiarato di essere "un grande fan di [La curva a campana] di quanto si possa pensare." Tuttavia, ha anche sostenuto che Herrnstein e Murray hanno sopravvalutato il ruolo dell'ereditarietà nel determinare le differenze di intelligenza. [20]

Critica di Noam Chomsky Edit

Nel 1995, Noam Chomsky, uno dei fondatori del campo delle scienze cognitive, ha criticato direttamente il libro e le sue ipotesi sul QI. È contrario all'idea che il QI sia ereditabile al 60%, sostenendo che "l'affermazione non ha senso" perché l'ereditarietà non deve essere genetica. Chomsky fa l'esempio delle donne che indossano orecchini:

Per prendere in prestito un esempio da Ned Block, "alcuni anni fa, quando solo le donne indossavano orecchini, l'ereditarietà di avere un orecchino era alta perché le differenze nel fatto che una persona avesse un orecchino erano dovute a una differenza cromosomica, XX contro XY". Nessuno ha ancora suggerito che indossare orecchini o cravatte sia "nei nostri geni", un destino inevitabile che l'ambiente non può influenzare, "condannando la nozione liberale". [21]

Continua dicendo che non ci sono quasi prove di un legame genetico e una maggiore evidenza che i problemi ambientali sono ciò che determina le differenze di QI.

Metodi statistici Modifica

Claude S. Fischer, Michael Hout, Martín Sánchez Jankowski, Samuel R. Lucas, Ann Swidler e Kim Voss nel libro Disuguaglianza per progettazione ricalcolato l'effetto dello stato socioeconomico, utilizzando le stesse variabili di La curva a campana, ma ponderandoli in modo diverso. Hanno scoperto che se i punteggi del QI vengono aggiustati, come hanno fatto Herrnstein e Murray, per eliminare l'effetto dell'istruzione, la capacità del QI di prevedere la povertà può aumentare notevolmente, fino al 61 percento per i bianchi e al 74 percento per i neri. Secondo gli autori, la scoperta di Herrnstein e Murray secondo cui il QI prevede la povertà molto meglio dello stato socioeconomico è sostanzialmente il risultato del modo in cui hanno gestito le statistiche. [22]

Nell'agosto 1995, l'economista del National Bureau of Economic Research Sanders Korenman e il sociologo dell'Università di Harvard Christopher Winship hanno sostenuto che l'errore di misurazione non è stato gestito correttamente da Herrnstein e Murray. Korenman e Winship hanno concluso: ". vi sono prove di sostanziali distorsioni dovute a errori di misurazione nelle loro stime degli effetti dello stato socioeconomico dei genitori. Inoltre, la misura dello stato socioeconomico dei genitori (SES) di Herrnstein e Murray non riesce a catturare gli effetti di importanti elementi del background familiare (come la struttura familiare monoparentale all'età di 14 anni).Di conseguenza, la loro analisi dà un'impressione esagerata dell'importanza del QI rispetto al SES dei genitori e rispetto al background familiare più in generale. varietà di metodi, comprese le analisi dei fratelli, suggeriscono che il background familiare dei genitori è almeno altrettanto importante e può essere più importante del QI nel determinare il successo socioeconomico nell'età adulta". [23]

Nel libro Intelligenza, geni e successo: gli scienziati rispondono alla curva a campana, un gruppo di scienziati sociali e statistici analizza il legame genetica-intelligenza, il concetto di intelligenza, la malleabilità dell'intelligenza e gli effetti dell'istruzione, il rapporto tra capacità cognitiva, salario e meritocrazia, i percorsi verso le disuguaglianze razziali ed etniche nella salute, e la questione dell'ordine pubblico. Questo lavoro sostiene che gran parte della risposta del pubblico è stata polemica e non è riuscita ad analizzare i dettagli della scienza e la validità degli argomenti statistici alla base delle conclusioni del libro. [1]

Uso di AFQT Edit

William J. Matthews scrive quella parte di La curva a campana'L'analisi di s si basa sull'AFQT "che non è un test del QI ma progettato per prevedere le prestazioni di determinate variabili di criterio". [24] L'AFQT copre argomenti come la trigonometria. [8]

Heckman ha osservato che l'AFQT è stato progettato solo per prevedere il successo nelle scuole di addestramento militare e che la maggior parte di questi test sembrano essere test di rendimento piuttosto che test di abilità, che misurano la conoscenza fattuale e non la pura abilità. Continua: [18] [25]

Ironia della sorte, gli autori eliminano dal loro punteggio AFQT composito un test a tempo di operazioni numeriche perché non è altamente correlato con gli altri test. Eppure è risaputo che nei dati che usano, questo sottotest è il miglior predittore di guadagni di tutti i componenti del test AFQT. Il fatto che molti dei sottotest siano solo debolmente correlati tra loro e che il miglior predittore di guadagni sia solo debolmente correlato con il loro punteggio "g-loaded", aumenta solo i dubbi sul fatto che un modello a capacità singola sia una descrizione soddisfacente dell'essere umano intelligenza. Porta anche a casa il punto che il "g-loading" così fortemente enfatizzato da Murray e Herrnstein misura solo l'accordo tra i test, non il potere predittivo per i risultati socioeconomici. Allo stesso modo, si potrebbe anche sostenere che gli autori hanno distorto la loro analisi empirica rispetto alle conclusioni che ottengono ignorando il test con il maggior potere predittivo.

Janet Currie e Duncan Thomas hanno presentato prove che suggeriscono che i punteggi AFQT sono probabilmente indicatori migliori per il background familiare rispetto all'"intelligenza" in uno studio del 1999:

Herrnstein e Murray riferiscono che, a condizione dell'"intelligenza" materna (punteggi AFQT), i punteggi dei test dei bambini sono poco influenzati dalle variazioni dello stato socio-economico. Utilizzando gli stessi dati, dimostriamo che la loro scoperta è molto fragile. [26]

Ordinamento cognitivo Modifica

Charles R. Tittle e Thomas Rotolo hanno scoperto che più gli esami scritti, simili al QI, vengono utilizzati come dispositivi di screening per l'accesso al lavoro, più forte è il rapporto tra QI e reddito. Quindi, piuttosto che un QI più alto che porta al raggiungimento dello status perché indica le abilità necessarie in una società moderna, il QI può riflettere le stesse abilità di test utilizzate nei dispositivi di screening artificiali con cui i gruppi di status proteggono i loro domini. [27]

Min-Hsiung Huang e Robert M. Hauser scrivono che Herrnstein e Murray forniscono scarse prove di crescita nell'ordinamento cognitivo. Utilizzando i dati del General Social Survey, hanno testato ciascuna di queste ipotesi utilizzando un breve test di abilità verbale che è stato somministrato a circa 12.500 adulti americani tra il 1974 e il 1994, i risultati non hanno fornito alcun supporto per nessuna delle ipotesi di tendenza avanzate da Herrnstein e Murray. Un grafico in La curva a campana pretende di dimostrare che le persone con QI superiore a 120 sono diventate "rapidamente più concentrate" in occupazioni ad alto QI dal 1940. Ma Robert Hauser e il suo collega Min-Hsiung Huang hanno riesaminato i dati e hanno fornito stime che sono scese "ben al di sotto di quelle di Herrnstein e Murray." Aggiungono che i dati, usati correttamente, "non ci dicono nulla se non che gruppi di occupazione selezionati e altamente istruiti sono cresciuti rapidamente dal 1940". [28]

Nel 1972, Noam Chomsky mise in dubbio l'idea di Herrnstein che la società si stesse sviluppando verso una meritocrazia. Chomsky ha criticato le ipotesi secondo cui le persone cercano solo occupazioni basate sul guadagno materiale. Sosteneva che Herrnstein non avrebbe voluto diventare un fornaio o un boscaiolo anche se avesse potuto guadagnare di più in questo modo. Ha anche criticato l'ipotesi che una società del genere sarebbe equa con una retribuzione basata sul valore dei contributi. Ha sostenuto che, poiché ci sono già grandi disuguaglianze ingiuste, le persone spesso saranno pagate non commisuratamente ai contributi alla società, ma a livelli che preservano tali disuguaglianze. [29]

Razza e intelligenza Modifica

Una parte della controversia riguardava le parti del libro che trattavano delle differenze di gruppo razziale sul QI e le conseguenze di ciò. Gli autori sono stati riportati in tutta la stampa popolare come sostenendo che queste differenze di QI sono strettamente genetiche, quando in realtà hanno attribuito differenze di QI sia ai geni che all'ambiente nel capitolo 13: "Ci sembra molto probabile che sia i geni che l'ambiente abbiano qualcosa a che fare con le differenze razziali". L'introduzione al capitolo afferma con maggiore cautela: "Il dibattito su se e quanto i geni e l'ambiente abbiano a che fare con le differenze etniche rimane irrisolto".

Quando diversi critici di spicco hanno trasformato questo in un "presupposto" che gli autori avessero attribuito la maggior parte o tutte le differenze razziali nel QI ai geni, il coautore Charles Murray ha risposto citando due passaggi del libro:

  • "Se il lettore è ora convinto che la spiegazione genetica o ambientale abbia vinto escludendo l'altra, non abbiamo fatto un lavoro sufficientemente buono nel presentare una parte o l'altra. Ci sembra molto probabile che sia i geni che l'ambiente ha qualcosa a che fare con le differenze razziali. Quale potrebbe essere il mix? Siamo decisamente agnostici su tale questione per quanto possiamo determinare, l'evidenza non giustifica una stima". (pag. 311) [30]
  • "Se domani sapessi senza ombra di dubbio che tutte le differenze cognitive tra le razze sono di origine genetica al 100%, nulla di significativo dovrebbe cambiare. La conoscenza non ti darebbe motivo di trattare gli individui in modo diverso rispetto a se le differenze etniche fossero al 100% ambientale". [30]

In un articolo che elogia il libro, l'economista Thomas Sowell ha criticato alcuni dei suoi aspetti, inclusi alcuni dei suoi argomenti sulla razza e la malleabilità del QI:

Quando i gruppi di immigrati europei negli Stati Uniti hanno ottenuto punteggi inferiori alla media nazionale nei test mentali, hanno ottenuto il punteggio più basso nelle parti astratte di tali test. Così fecero i bambini alpinisti bianchi negli Stati Uniti nei primi anni '30. Stranamente, Herrnstein e Murray si riferiscono al "folklore" secondo cui "si pensava che gli ebrei e altri gruppi di immigrati fossero al di sotto della media in intelligenza". Non era né folklore né qualcosa di soggettivo come i pensieri. Si basava su dati concreti, duri come qualsiasi altro dato in La curva a campana. Questi gruppi hanno ripetutamente testato al di sotto della media i test mentali dell'era della prima guerra mondiale, sia nell'esercito che nella vita civile. Per gli ebrei, è chiaro che i test successivi hanno mostrato risultati radicalmente diversi, in un'epoca in cui c'erano pochissimi matrimoni misti per cambiare il corredo genetico degli ebrei americani. [31]

Rushton (1997) ha sostenuto che i primi test supportano in effetti un QI ebraico ashkenazita medio alto. [32]

Editorialista Bob Herbert, scrivendo per Il New York Times, ha descritto il libro come "un pezzo scabro di pornografia razziale mascherata da seria borsa di studio". "Il signor Murray può protestare quanto vuole", scrisse Herbert, "il suo libro è solo un modo gentile per chiamare qualcuno negro". [33]

Nel 1996, Stephen Jay Gould ha pubblicato un'edizione riveduta e ampliata del suo libro del 1981 La misura sbagliata dell'uomo, inteso a confutare più direttamente molti dei La curva a campana'affermazioni di s riguardo alla razza e all'intelligenza, e sosteneva che le prove dell'ereditarietà del QI non indicavano un'origine genetica per raggruppare le differenze nell'intelligenza. [34] [35]

Lo psicologo David Marks ha suggerito che il test ASVAB utilizzato nelle analisi di La curva a campana è altamente correlato con le misure di alfabetizzazione e sostiene che il test ASVAB in realtà non è una misura dell'intelligenza generale ma dell'alfabetizzazione. [36] [37]

Melvin Konner, professore di antropologia e professore associato di psichiatria e neurologia alla Emory University, chiamato Campana curva un "assalto deliberato agli sforzi per migliorare il rendimento scolastico degli afroamericani":

Questo libro ha presentato una forte evidenza che i geni svolgono un ruolo nell'intelligenza, ma l'ha collegata all'affermazione non supportata che i geni spiegano la piccola ma consistente differenza tra bianco e nero nel QI. La giustapposizione di un buon argomento con uno cattivo sembrava motivato politicamente e presto apparvero confutazioni persuasive. In realtà, gli afroamericani hanno eccelso praticamente in ogni ambiente arricchito in cui sono stati inseriti, molti dei quali erano stati precedentemente esclusi, e questo solo nel primo decennio o due di opportunità migliorate ma ancora non uguali. È probabile che le curve reali per le due gare saranno un giorno sovrapponibili l'una all'altra, ma questo potrebbe richiedere decenni di cambiamenti e ambienti diversi per persone diverse. Le affermazioni sul potenziale genetico sono prive di significato se non alla luce di questo requisito. [38]

Il libro di testo 2014 Analisi Evolutiva di Herron e Freeman [39] dedicò un intero capitolo a sfatare quella che chiamarono "l'errore della curva di Bell", dicendo che "l'argomentazione di Murray e Herrnstein equivale a poco più di un appello all'incredulità personale" e che è un errore pensare che l'ereditarietà può dirci qualcosa sulle cause delle differenze tra i mezzi della popolazione. In riferimento al confronto dei punteggi del QI afro-americano con quello europeo-americano, il testo afferma che solo un esperimento di giardino comune, in cui i due gruppi vengono allevati in un ambiente tipicamente vissuto dagli europei-americani, consentirebbe di vedere se il la differenza è genetica Questo tipo di esperimento, di routine con piante e animali, non può essere condotto con gli esseri umani. Né è possibile approssimare questo disegno con adozioni in famiglie dei diversi gruppi, perché i bambini sarebbero riconoscibili e possibilmente trattati in modo diverso. Il testo conclude: "Non c'è modo di valutare se la genetica ha qualcosa a che fare con la differenza nel punteggio del QI tra i gruppi etnici".

Nel 1995, Noam Chomsky ha criticato le conclusioni del libro sulla razza e l'idea che i neri e le persone con QI più basso che abbiano più figli siano persino un problema. [21]

Rutledge M. Dennis suggerisce che attraverso brani sonori di opere come il famoso studio di Jensen sul divario di rendimento e il libro di Herrnstein e Murray La curva a campana, i media "dipingono un'immagine dei neri e delle altre persone di colore come analfabeti biologici collettivi, non solo intellettualmente inadatti, ma anche malvagi e criminali", fornendo così, dice, "la logica e la giustificazione per coloro che vorrebbero ulteriormente privare i diritti ed escludere minoranze razziali ed etniche”. [40]

Charles Lane ha sottolineato che anche 17 dei ricercatori il cui lavoro è citato nel libro hanno contribuito a L'umanità trimestrale, una rivista di antropologia fondata nel 1960 a Edimburgo, che è stata considerata a sostegno della teoria della superiorità genetica dei bianchi. [41] David Bartholomew riporta la risposta di Murray come parte della controversia sulla Bell Curve. [42] Nella sua postfazione all'edizione del 1996 di Free Press di La curva a campana, Murray ha risposto che il libro "trae le sue prove da più di mille studiosi" e tra i ricercatori citati nell'elenco di Lane "ci sono alcuni degli psicologi più rispettati del nostro tempo e che quasi tutte le fonti indicate come contaminate sono articoli pubblicati nelle principali riviste specializzate”. [43]

The Bell Curve Wars: razza, intelligenza e futuro dell'America è una raccolta di articoli pubblicati in reazione al libro. A cura di Steven Fraser, gli autori di questi saggi non hanno un punto di vista specifico riguardo al contenuto di La curva a campana, ma esprimono le proprie critiche su vari aspetti del libro, inclusi i metodi di ricerca utilizzati, i presunti pregiudizi nascosti nella ricerca e le politiche suggerite a seguito delle conclusioni tratte dagli autori. [44] Fraser scrive che "scrutando le note e la bibliografia in La curva a campana, i lettori possono riconoscere più facilmente il progetto per quello che è: una gelida sintesi del lavoro di teorici della razza poco raccomandabili ed eccentrici eugenetisti". [45]

Accuse di razzismo Modifica

Poiché il libro forniva dati statistici affermando che i neri erano, in media, meno intelligenti dei bianchi, alcune persone hanno temuto che La curva a campana potrebbero essere usati dagli estremisti per giustificare genocidi e crimini d'odio. [46] Gran parte del lavoro a cui fa riferimento La curva a campana è stato finanziato dal Pioneer Fund, che mira a promuovere lo studio scientifico dell'ereditarietà e delle differenze umane, ed è stato accusato di promuovere il razzismo scientifico. [47] [48] [49] Murray ha criticato la caratterizzazione del Pioneer Fund come un'organizzazione razzista, sostenendo che ha tanto rapporto con il suo fondatore quanto "Henry Ford e la Ford Foundation di oggi". [50]

Il biologo evoluzionista Joseph L. Graves ha descritto La curva a campana come esempio di scienza razzista, contenente tutti i tipi di errori nell'applicazione del metodo scientifico che hanno caratterizzato la storia del razzismo scientifico:

  1. Affermazioni non supportate dai dati forniti
  2. Errori di calcolo che invariabilmente supportano l'ipotesi
  3. Nessuna menzione di dati che contraddicano l'ipotesi
  4. Nessuna menzione di teorie e dati in conflitto con le ipotesi di base
  5. Raccomandazioni politiche audaci coerenti con quelle sostenute dai razzisti. [51]

Eric Siegel ha scritto su Scientifico americano blog che il libro "appoggia il pregiudizio in virtù di ciò che non dice. Da nessuna parte il libro affronta il motivo per cui indaga sulle differenze razziali nel QI. Non spiegando mai una ragione per riferire su queste differenze in primo luogo, gli autori trasmettono un non detto ma conclusione inequivocabile: la razza è un utile indicatore della probabilità che una persona possieda determinate capacità.Anche se supponiamo che le tendenze dei dati presentati siano valide, il libro lascia al lettore il compito di dedurre come meglio esprimere queste intuizioni da usare. L'effetto netto è quello di tacitamente condonare il pregiudizio degli individui basato sulla razza." [52] Allo stesso modo, Howard Gardner ha accusato gli autori di impegnarsi in una "scienza scientifica del rischio", sostenendo che "che si tratti di una questione di scienza, politica o retorica, gli autori si avvicinano pericolosamente ad abbracciare le posizioni più estreme, ma alla fine timidi lontano dal farlo. La politica del rischio accademico incoraggia il lettore a trarre le conclusioni più forti, mentre consente agli autori di sconfessare questa intenzione". [53]


Il pull-up (a volte chiamato bleed-through) è un'incapacità del software di analisi di discriminare tra i diversi colori del colorante utilizzati durante la generazione dei risultati del test. Un picco osservato in un colorante (come il blu) viene registrato dal sensore per un altro colorante (come il verde o il giallo) e genera un secondo picco che è un artefatto tecnico.Il picco dell'artefatto può essere di notevole altezza da considerarsi un vero allele. C'è il pericolo che il pull-up non venga riconosciuto, in particolare quando il risultato che produce è coerente con ciò che l'analista si aspettava o voleva trovare.


Perché il picco DSC ha una forma a campana? - Biologia

Per la prima metà del XX secolo, la maggior parte delle persone non ha pensato ai limiti delle nostre risorse di combustibili fossili. La situazione è cambiata negli anni '50, quando una geofisica di nome Marion King Hubbard ha sviluppato una curva che è stata applicata alle forniture di combustibili fossili (in particolare petrolio). La sua curva è diventata nota come la "Curva di Hubbert" ed è diventata un argomento controverso per gli esperti di energia.

La curva di Hubbert è davvero una funzione matematica di base. Esso ha una forma a campana che inizia da zero, sale a un picco e poi scende di nuovo a zero (vedi diagramma con la linea rossa sotto).

La parte ascendente della curva ha tre parti (fasi) che ricordano una forma a "S": (1) una fase di "ritardo" che si piega verso l'alto, (2) una fase di "log" in rapida salita e (3) un plateau che livella spento. I matematici chiamano tale curva a forma di "S" an esponenziale curva.

Le curve esponenziali hanno ampia applicabilità. Ad esempio, possono essere utilizzati per rappresentare il modello di crescita di un singolo organismo o di una popolazione. Dal punto di vista medico, possono mostrare la quantità di ossigeno trasportata dall'emoglobina del pigmento del sangue poiché la quantità di ossigeno nel sangue cambia da livelli bassi ad alti.


Nel 1956 Hubbert utilizzò la curva per spiegare il futuro delle forniture di petrolio. La sua curva includeva un aumento dell'offerta, un picco e un calo. La base fondamentale della sua teoria era che le scorte di petrolio sono limitate. Pertanto, la quantità disponibile nel terreno si ridurrà continuamente, portando a un ciclo di espansione/contrazione. Una componente importante della teoria di Hubbert è che può essere applicata a livello locale, regionale, nazionale o globale.

La curva, come la descrisse per la prima volta Hubbert, può essere rappresentata da questo diagramma che ha la produzione annuale sull'asse Y e il tempo sull'asse X:


Quando presentò per la prima volta il suo articolo nel 1956, Hubbert predisse che la produzione di petrolio avrebbe raggiunto il picco negli Stati Uniti alla fine degli anni '60 e in tutto il mondo intorno al 2005. Ha anche previsto che la produzione annuale sarebbe arrivata a 12 gigabarrel. Quelle previsioni divennero note come il concetto di "picco del petrolio".

Poiché la previsione di Hubbert ha ramificazioni così profonde su così tanti aspetti del nostro benessere sociale, è stata oggetto di ampie revisioni e revisioni. Di seguito sono riportate diverse curve che sono state sviluppate per testare le idee di Hubbert.


Questa curva mostra la produzione in Norvegia. Notare il buon adattamento dei punti dati con Hubbert.


Questo grafico mostra la produzione di petrolio negli Stati Uniti. Si noti che il picco è stato raggiunto approssimativamente nel 1970, sebbene il declino abbia richiesto più tempo di quanto previsto dalla curva di Hubbert.


Questa curva mostra la produzione giornaliera nelle nazioni non OPEC. Nota che ogni nazione ha un picco che è stato raggiunto tra il 1970 e il 2004.

Alcune persone sono d'accordo con le previsioni di Hubbert e le usano per sostenere che dobbiamo limitare l'uso del petrolio. Altri sono d'accordo con il concetto, ma credono che le forniture dureranno più a lungo di quanto previsto da Hubbert. Altri ancora non sono d'accordo con il concetto del tutto

Una discussione dettagliata del picco del petrolio va oltre lo scopo di questo corso. Tuttavia alcuni spunti possono essere acquisiti attraverso le seguenti letture: .


Contenuti

La base per i sensori di immagine delle fotocamere digitali è la tecnologia metallo-ossido-semiconduttore (MOS), [4] [5] che ha origine dall'invenzione del MOSFET (transistor ad effetto di campo MOS) di Mohamed M. Atalla e Dawon Kahng presso i Bell Labs nel 1959. [6] Ciò ha portato allo sviluppo di sensori di immagine digitali a semiconduttore, incluso il dispositivo ad accoppiamento di carica (CCD) e successivamente il sensore CMOS. [5] Il primo sensore di immagine a semiconduttore è stato il dlol ad accoppiamento di carica, inventato da Willard S. Boyle e George E. Smith presso i Bell Labs nel 1969, [7] basato sulla tecnologia dei condensatori MOS. [5] Il sensore NMOS a pixel attivi è stato successivamente inventato dal team di Tsutomu Nakamura all'Olympus nel 1985, [8] [9] [10] che ha portato allo sviluppo del sensore CMOS a pixel attivi (sensore CMOS) dal team di Eric Fossum al Jet Propulsion Laboratory della NASA nel 1993. [11] [9]

Negli anni '60, Eugene F. Lally del Jet Propulsion Laboratory stava pensando a come utilizzare un fotosensore a mosaico per catturare immagini digitali. La sua idea era quella di fotografare i pianeti e le stelle durante il viaggio nello spazio per fornire informazioni sulla posizione degli astronauti. [12] Come per la fotocamera senza pellicola del dipendente della Texas Instruments Willis Adcock (brevetto USA 4.057.830) nel 1972, [13] la tecnologia doveva ancora raggiungere il concetto.

La Cromemco Cyclops era una fotocamera completamente digitale introdotta come prodotto commerciale nel 1975. Il suo design è stato pubblicato come progetto di costruzione per hobby nel numero di febbraio 1975 di Elettronica popolare rivista. Utilizzava un sensore di immagine MOS (metal-oxide-semiconductor) 32×32, che era un chip di memoria RAM dinamico MOS (DRAM) modificato. [14]

Steven Sasson, un ingegnere della Eastman Kodak, nel 1975 inventò e costruì una fotocamera elettronica autonoma che utilizzava un sensore di immagine con dispositivo ad accoppiamento di carica (CCD). [15] [16] [17] Più o meno nello stesso periodo, Fujifilm iniziò a sviluppare La tecnologia CCD negli anni '70. [18] I primi usi erano principalmente militari e scientifici, seguiti da applicazioni mediche e di informazione. [ citazione necessaria ]

Le pratiche fotocamere digitali sono state rese possibili dai progressi nella compressione dei dati, a causa dei requisiti di memoria e larghezza di banda impraticabili per immagini e video non compressi. [19] L'algoritmo di compressione più importante è la trasformata del coseno discreta (DCT), [19] [20] una tecnica di compressione con perdita che fu proposta per la prima volta da Nasir Ahmed mentre lavorava all'Università del Texas nel 1972. [21] Pratico le fotocamere digitali sono state abilitate dagli standard di compressione basati su DCT, inclusi gli standard di codifica video H.26x e MPEG introdotti dal 1988 in poi, [20] e lo standard di compressione delle immagini JPEG introdotto nel 1992. [22] [23]

Nikon era interessata alla fotografia digitale dalla metà degli anni '80. Nel 1986, durante la presentazione a Photokina, Nikon ha introdotto un prototipo operativo della prima fotocamera elettronica di tipo SLR (Still Video Camera), prodotta da Panasonic. [24] La Nikon SVC è stata costruita attorno a un sensore da 2/3" ad accoppiamento di carica da 300.000 pixel. Il supporto di memorizzazione, un dischetto magnetico all'interno della fotocamera consente di registrare 25 o 50 immagini in bianco e nero, a seconda della definizione. [25] In 1988, Nikon ha rilasciato la prima fotocamera reflex elettronica commerciale a obiettivo singolo, la QV-1000C.[24]

A Photokina 1988, Fujifilm ha presentato la FUJIX DS-1P, la prima fotocamera completamente digitale, in grado di salvare i dati su una scheda di memoria a semiconduttore. La scheda di memoria della fotocamera aveva una capacità di 2 MB di SRAM (memoria statica ad accesso casuale) e poteva contenere fino a dieci fotografie. Nel 1989, Fujifilm ha rilasciato la FUJIX DS-X, la prima fotocamera completamente digitale ad essere commercializzata. [18] Nel 1996, la scheda di memoria flash da 40 MB di Toshiba è stata adottata per diverse fotocamere digitali. [26]

Il primo telefono con fotocamera commerciale è stato il Kyocera Visual Phone VP-210, rilasciato in Giappone nel maggio 1999. [27] All'epoca era chiamato "videotelefono mobile" [28] e aveva una fotocamera frontale da 110.000 pixel. [27] Memorizza fino a 20 immagini digitali JPEG, che possono essere inviate tramite e-mail, oppure il telefono può inviare fino a due immagini al secondo tramite la rete cellulare giapponese Personal Handy-phone System (PHS). [27] Il Samsung SCH-V200, rilasciato in Corea del Sud nel giugno 2000, è stato anche uno dei primi telefoni con fotocamera integrata. Aveva un display a cristalli liquidi (LCD) TFT e memorizzava fino a 20 foto digitali con una risoluzione di 350.000 pixel. Tuttavia, non è stato possibile inviare l'immagine risultante tramite la funzione telefonica, ma ha richiesto una connessione al computer per accedere alle foto. [29] Il primo telefono con fotocamera sul mercato di massa fu il J-SH04, un modello Sharp J-Phone venduto in Giappone nel novembre 2000. [30] [29] Poteva trasmettere istantaneamente immagini tramite telecomunicazione cellulare. [31] A metà degli anni 2000, i telefoni cellulari di fascia alta avevano una fotocamera digitale integrata. All'inizio degli anni 2010, quasi tutti gli smartphone avevano una fotocamera digitale integrata.

I due principali tipi di sensore di immagine digitale sono CCD e CMOS. Un sensore CCD ha un amplificatore per tutti i pixel, mentre ogni pixel in un sensore CMOS a pixel attivi ha il proprio amplificatore. [32] Rispetto ai CCD, i sensori CMOS consumano meno energia. Le fotocamere con un sensore piccolo utilizzano un sensore CMOS retroilluminato (BSI-CMOS). Le capacità di elaborazione delle immagini della fotocamera determinano il risultato della qualità dell'immagine finale molto più del tipo di sensore. [33] [34]

Risoluzione del sensore Modifica

La risoluzione di una fotocamera digitale è spesso limitata dal sensore di immagine che trasforma la luce in segnali discreti. Più luminosa è l'immagine in un dato punto del sensore, maggiore è il valore letto per quel pixel. A seconda della struttura fisica del sensore, è possibile utilizzare una matrice di filtri colorati, che richiede la demosaicizzazione per ricreare un'immagine a colori. Il numero di pixel nel sensore determina il "conteggio pixel" della fotocamera. In un sensore tipico, il conteggio dei pixel è il prodotto del numero di righe e del numero di colonne. Ad esempio, un sensore da 1.000 per 1.000 pixel avrebbe 1.000.000 di pixel o 1 megapixel.

Opzioni di risoluzione Modifica

Il selettore di risoluzione del firmware consente all'utente di abbassare opzionalmente la risoluzione, ridurre la dimensione del file per immagine ed estendere lo zoom digitale senza perdita di dati. L'opzione di risoluzione inferiore è in genere 640 × 480 pixel (0,3 megapixel). [ citazione necessaria ]

Una risoluzione più bassa estende il numero di foto rimanenti nello spazio libero, posticipando l'esaurimento dello spazio di archiviazione, che è utile dove non è disponibile un ulteriore dispositivo di archiviazione dati, e per acquisizioni di minore importanza, dove il vantaggio di un minor consumo di spazio di archiviazione supera il svantaggio di dettagli ridotti. [35]

Nitidezza dell'immagine Modifica

La qualità finale di un'immagine dipende da tutte le trasformazioni ottiche nella catena di produzione dell'immagine. [36] Carl Zeiss, un ottico tedesco, fa notare che l'anello più debole di una catena ottica determina la qualità dell'immagine finale. Nel caso della fotocamera digitale, un modo semplice per descrivere questo concetto è che l'obiettivo determina la massima nitidezza dell'immagine mentre il sensore di immagine determina la risoluzione massima. Si può dire che l'illustrazione a destra confronta un obiettivo con una nitidezza molto scarsa su una fotocamera ad alta risoluzione, con un obiettivo con una buona nitidezza su una fotocamera con risoluzione inferiore.

Metodi di acquisizione delle immagini Modifica

Dall'introduzione dei primi dorsi digitali, ci sono stati tre metodi principali per catturare l'immagine, ciascuno basato sulla configurazione hardware del sensore e dei filtri colore.

Colpo singolo i sistemi di acquisizione utilizzano un chip sensore con un mosaico di filtri Bayer o tre sensori di immagine separati (uno ciascuno per i colori additivi primari rosso, verde e blu) che sono esposti alla stessa immagine tramite un divisore di fascio (vedi Fotocamera a tre CCD ).

Spari multipli espone il sensore all'immagine in una sequenza di tre o più aperture dell'apertura dell'obiettivo. Esistono diversi metodi di applicazione della tecnica multi-shot. Il più comune era originariamente utilizzare un singolo sensore di immagine con tre filtri passati davanti al sensore in sequenza per ottenere le informazioni aggiuntive sul colore. Un altro metodo di scatto multiplo è chiamato Microscanning. Questo metodo utilizza un singolo chip sensore con un filtro Bayer e sposta fisicamente il sensore sul piano di messa a fuoco dell'obiettivo per costruire un'immagine a risoluzione più elevata rispetto alla risoluzione nativa del chip. Una terza versione combina questi due metodi senza un filtro Bayer sul chip.

Il terzo metodo è chiamato scansione perché il sensore si muove sul piano focale in modo molto simile al sensore di uno scanner di immagini. Il lineare o tri-lineare i sensori nelle fotocamere a scansione utilizzano solo una singola linea di fotosensori o tre linee per i tre colori. La scansione può essere eseguita spostando il sensore (ad esempio, quando si utilizza il campionamento co-sito del colore) o ruotando l'intera telecamera. Una fotocamera digitale a linea rotante offre immagini costituite da una risoluzione totale molto elevata.

La scelta del metodo per una data acquisizione è determinata in gran parte dall'oggetto. Di solito è inappropriato tentare di catturare un soggetto che si muove con qualcosa che non sia un sistema a scatto singolo. Tuttavia, la maggiore fedeltà dei colori e le dimensioni e le risoluzioni dei file più grandi disponibili con i dorsi multiscatto e di scansione li rendono più attraenti per i fotografi commerciali che lavorano con soggetti fissi e fotografie di grande formato. [ ricerca originale? ]

I miglioramenti apportati alle fotocamere a scatto singolo e all'elaborazione dei file di immagine all'inizio del 21° secolo hanno reso le fotocamere a scatto singolo quasi completamente dominanti, anche nella fotografia commerciale di fascia alta.

Filtra mosaici, interpolazione e aliasing Modifica

Più attuale [ lasso di tempo? ] le fotocamere digitali consumer utilizzano un filtro a mosaico Bayer in combinazione con un filtro ottico anti-aliasing per ridurre l'aliasing dovuto al ridotto campionamento delle diverse immagini a colori primari. Un algoritmo di demosaicizzazione viene utilizzato per interpolare le informazioni sul colore per creare una serie completa di dati immagine RGB.

Le telecamere che utilizzano un approccio 3CCD single-shot con splitter di fascio, approccio multi-shot a tre filtri, campionamento co-site del colore o sensore Foveon X3 non utilizzano filtri anti-aliasing, né demosaicing.

Il firmware nella fotocamera, o un software in un programma di conversione raw come Adobe Camera Raw, interpreta i dati raw dal sensore per ottenere un'immagine a colori, perché il modello di colore RGB richiede tre valori di intensità per ogni pixel: uno ciascuno per il rosso, verde e blu (altri modelli di colore, quando utilizzati, richiedono anche tre o più valori per pixel). Un singolo elemento del sensore non può registrare contemporaneamente queste tre intensità, quindi è necessario utilizzare una matrice di filtri di colore (CFA) per filtrare selettivamente un particolare colore per ciascun pixel.

Il pattern del filtro Bayer è un pattern a mosaico ripetuto 2x2 di filtri di luce, con quelli verdi agli angoli opposti e rossi e blu nelle altre due posizioni. L'elevata percentuale di verde sfrutta le proprietà del sistema visivo umano, che determina la luminosità principalmente dal verde ed è molto più sensibile alla luminosità che alla tonalità o alla saturazione. A volte viene utilizzato un modello di filtro a 4 colori, che spesso coinvolge due diverse tonalità di verde. Ciò fornisce un colore potenzialmente più accurato, ma richiede un processo di interpolazione leggermente più complicato.

I valori di intensità del colore non catturati per ogni pixel possono essere interpolati dai valori dei pixel adiacenti che rappresentano il colore che si sta calcolando. [37]

Dimensioni del sensore e angolo di visualizzazione Modifica

Le fotocamere con sensori di immagine digitali più piccoli della tipica dimensione della pellicola da 35 mm hanno un campo o un angolo di campo più piccolo se utilizzate con un obiettivo della stessa lunghezza focale. Questo perché l'angolo di campo è una funzione sia della lunghezza focale che del sensore o della dimensione della pellicola utilizzata.

Il fattore di ritaglio è relativo al formato pellicola 35 mm. Se viene utilizzato un sensore più piccolo, come nella maggior parte delle fotocamere digitali, il campo visivo viene ritagliato dal sensore a un campo visivo inferiore a quello del formato full frame da 35 mm. Questo restringimento del campo visivo può essere descritto come fattore di ritaglio, un fattore in base al quale sarebbe necessario un obiettivo a lunghezza focale maggiore per ottenere lo stesso campo visivo su una fotocamera a pellicola da 35 mm. Le reflex digitali full frame utilizzano un sensore delle stesse dimensioni di un fotogramma di pellicola da 35 mm.

I valori comuni per il ritaglio del campo visivo nelle reflex digitali che utilizzano sensori pixel attivi includono 1,3x per alcuni sensori Canon (APS-H), 1,5x per i sensori Sony APS-C utilizzati da Nikon, Pentax e Konica Minolta e per i sensori Fujifilm, 1,6 (APS -C) per la maggior parte dei sensori Canon,

1,7x per i sensori Foveon di Sigma e 2x per i sensori Kodak e Panasonic da 4/3 pollici attualmente utilizzati da Olympus e Panasonic. I fattori di ritaglio per le fotocamere compatte e bridge non SLR sono più grandi, spesso 4x o più.

Tabella delle dimensioni del sensore [38]
Tipo Larghezza (mm) Altezza (mm) Dimensioni (mm²)
1/3.6" 4.00 3.00 12.0
1/3.2" 4.54 3.42 15.5
1/3" 4.80 3.60 17.3
1/2.7" 5.37 4.04 21.7
1/2.5" 5.76 4.29 24.7
1/2.3" 6.16 4.62 28.5
1/2" 6.40 4.80 30.7
1/1.8" 7.18 5.32 38.2
1/1.7" 7.60 5.70 43.3
2/3" 8.80 6.60 58.1
1" 12.8 9.6 123
4/3" 18.0 13.5 243
APS-C 25.1 16.7 419
35 mm 36 24 864
Di ritorno 48 36 1728

Le fotocamere digitali sono disponibili in un'ampia gamma di dimensioni, prezzi e capacità. Oltre alle fotocamere digitali per uso generale, vengono utilizzate fotocamere specializzate, tra cui apparecchiature di imaging multispettrale e astrografi, per scopi scientifici, militari, medici e altri scopi speciali.

Compatti Modifica

Le fotocamere compatte sono pensate per essere portatili (tascabili) e sono particolarmente adatte per "istantanee" casuali.

Molti incorporano un gruppo obiettivo retrattile che fornisce lo zoom ottico. Nella maggior parte dei modelli, un copriobiettivo ad azionamento automatico protegge l'obiettivo dagli elementi. La maggior parte dei modelli rinforzati o resistenti all'acqua non si ritrae e la maggior parte con funzionalità di superzoom non si ritrae completamente.

Le fotocamere compatte sono generalmente progettate per essere facili da usare. Quasi tutti includono una modalità automatica, o "modalità automatica", che effettua automaticamente tutte le impostazioni della fotocamera per l'utente. Alcuni hanno anche comandi manuali. Le fotocamere digitali compatte in genere contengono un piccolo sensore che sacrifica la qualità dell'immagine con la compattezza e la semplicità. Le immagini di solito possono essere archiviate solo utilizzando la compressione con perdita di dati (JPEG). La maggior parte ha un flash incorporato solitamente di bassa potenza, sufficiente per i soggetti vicini. Alcune fotocamere digitali compatte di fascia alta hanno un hotshoe per il collegamento a un flash esterno. L'anteprima dal vivo viene quasi sempre utilizzata per inquadrare la foto su un LCD integrato. Oltre a poter scattare fotografie, quasi tutte le fotocamere compatte hanno la capacità di registrare video.

Le compatte hanno spesso capacità macro e obiettivi zoom, ma la gamma di zoom (fino a 30x) è generalmente sufficiente per la fotografia spontanea ma inferiore a quella disponibile sulle fotocamere bridge (più di 60x) o agli obiettivi intercambiabili delle fotocamere DSLR disponibili a un molto più alto costo. [39] I sistemi di messa a fuoco automatica nelle fotocamere digitali compatte generalmente si basano su una metodologia di rilevamento del contrasto che utilizza i dati dell'immagine dal feed di anteprima dal vivo dell'imager principale. Alcune fotocamere digitali compatte utilizzano un sistema di autofocus ibrido simile a quello comunemente disponibile sulle reflex digitali.

In genere, le fotocamere digitali compatte incorporano un otturatore a lamelle quasi silenzioso nell'obiettivo, ma riproducono un suono simulato della fotocamera per scopi scheomorfi.

Per il basso costo e le dimensioni ridotte, queste fotocamere utilizzano in genere formati di sensori di immagine con una diagonale compresa tra 6 e 11 mm, corrispondente a un fattore di ritaglio tra 7 e 4. Ciò offre prestazioni in condizioni di scarsa illuminazione più deboli, maggiore profondità di campo, messa a fuoco generalmente più ravvicinata capacità e componenti più piccoli rispetto alle fotocamere che utilizzano sensori più grandi. Alcune fotocamere utilizzano un sensore più grande tra cui, nella fascia alta, una costosa fotocamera compatta con sensore full frame, come la Sony Cyber-shot DSC-RX1, ma hanno capacità simili a quelle di una DSLR.

Sono disponibili diverse funzioni aggiuntive a seconda del modello della fotocamera. Tali caratteristiche includono GPS, bussola, barometri e altimetri. [40]

A partire dal 2011, alcune fotocamere digitali compatte possono scattare foto in 3D. Queste fotocamere stereo compatte 3D possono acquisire foto panoramiche 3D con obiettivo doppio o anche obiettivo singolo per la riproduzione su una TV 3D.

Nel 2013, Sony ha rilasciato due modelli di fotocamera aggiuntivi senza display, da utilizzare con uno smartphone o un tablet, controllati da un'applicazione mobile tramite WiFi. [41]

Compatti robusti Modifica

Le fotocamere compatte robuste in genere includono protezione contro l'immersione, condizioni di caldo e freddo, urti e pressione. I termini usati per descrivere tali proprietà includono rispettivamente impermeabile, antigelo, resistente al calore, antiurto e indeformabile. Quasi tutti i principali produttori di fotocamere hanno almeno un prodotto in questa categoria. Alcuni sono impermeabili fino a una profondità considerevole fino a 82 piedi (27 m) [ citazione necessaria ] altri solo 10 piedi (3 m), ma solo pochi galleggeranno. I Rugged spesso mancano di alcune delle caratteristiche delle normali fotocamere compatte, ma hanno funzionalità video e la maggior parte può registrare l'audio. La maggior parte dispone di stabilizzazione dell'immagine e flash incorporato. LCD touchscreen e GPS non funzionano sott'acqua.

Action cam Modifica

GoPro e altri marchi offrono action cam robuste, piccole e che possono essere facilmente fissate a casco, braccio, bicicletta, ecc. La maggior parte ha un grandangolo e una messa a fuoco fissa e può scattare foto e video, in genere con l'audio.

Fotocamere a 360 gradi Modifica

La fotocamera a 360 gradi può scattare foto o registrare video a 360 gradi utilizzando due obiettivi uno dietro l'altro e riprendendo contemporaneamente. Alcune delle fotocamere sono Ricoh Theta S, Nikon Keymission 360 e Samsung Gear 360. Nico360 è stata lanciata nel 2016 e rivendicata come la fotocamera a 360 gradi più piccola al mondo con dimensioni 46 x 46 x 28 mm (1,8 x 1,8 x 1,1 pollici) e prezzo meno di 200 dollari. Con la modalità di cucitura integrata, Wi-Fi e Bluetooth, è possibile eseguire lo streaming live. Essendo anche resistente all'acqua, la Nico360 può essere utilizzata come action cam. [42]

Ci sono tendenzialmente che le action cam hanno la capacità di girare a 360 gradi con una risoluzione di almeno 4K. [43]

Fotocamere bridge Modifica

Le fotocamere bridge assomigliano fisicamente alle reflex digitali e talvolta sono chiamate a forma di DSLR o simili a DSLR. Forniscono alcune caratteristiche simili ma, come le compatte, utilizzano un obiettivo fisso e un piccolo sensore. Alcune fotocamere compatte hanno anche la modalità PSAM. La maggior parte usa l'anteprima dal vivo per inquadrare l'immagine. Il loro solito autofocus è lo stesso meccanismo di rilevamento del contrasto delle compatte, ma molte fotocamere bridge hanno una modalità di messa a fuoco manuale e alcune hanno un anello di messa a fuoco separato per un maggiore controllo.

Le grandi dimensioni fisiche e il sensore piccolo consentono il superzoom e l'ampia apertura. Le fotocamere bridge generalmente includono un sistema di stabilizzazione dell'immagine per consentire esposizioni manuali più lunghe, a volte migliori delle reflex digitali per condizioni di scarsa illuminazione.

A partire dal 2014, le fotocamere bridge sono disponibili in due classi principali in termini di dimensioni del sensore, in primo luogo il più tradizionale sensore da 1/2,3" (misurato dal formato del sensore di immagine) che offre maggiore flessibilità nella progettazione dell'obiettivo e consente uno zoom a mano libera da 20 a 24 mm (equivalente a 35 mm) grandangolo fino a oltre 1000 mm di supertele e, in secondo luogo, un sensore da 1" che consente una migliore qualità dell'immagine in particolare in condizioni di scarsa illuminazione (ISO più elevati) ma pone maggiori vincoli al design dell'obiettivo, con conseguente obiettivi zoom che fermarsi a 200 mm (apertura costante, ad es. Sony RX10) o 400 mm (apertura variabile, ad es. Panasonic Lumix FZ1000) equivalente, corrispondente a un fattore di zoom ottico di circa 10 a 15.

Alcune fotocamere bridge hanno una filettatura dell'obiettivo per collegare accessori come convertitori grandangolari o teleobiettivi, nonché filtri come filtri UV o polarizzatori circolari e paraluce. La scena è composta visualizzando il display o il mirino elettronico (EVF). La maggior parte ha un ritardo dell'otturatore leggermente più lungo di una DSLR. Molte di queste fotocamere possono memorizzare immagini in formato raw oltre a supportare JPEG. [44] La maggior parte ha un flash incorporato, ma solo pochi hanno un hotshoe.

In pieno sole, la differenza di qualità tra una buona fotocamera compatta e una reflex digitale è minima, ma le fotocamere bridge sono più portatili, costano meno e hanno una maggiore capacità di zoom. Pertanto, una fotocamera bridge può adattarsi meglio alle attività diurne all'aperto, tranne quando si cercano foto di qualità professionale. [ citazione necessaria ]

Fotocamere mirrorless con obiettivo intercambiabile Modifica

Alla fine del 2008, è emerso un nuovo tipo di fotocamera, chiamata a fotocamera mirrorless con obiettivo intercambiabile. Tecnicamente è una fotocamera DSLR che non richiede uno specchio reflex, componente chiave della prima. Mentre una tipica reflex digitale ha uno specchio che riflette la luce dall'obiettivo fino al mirino ottico, in una fotocamera mirrorless non esiste un mirino ottico. Il sensore di immagine è sempre esposto alla luce, offrendo all'utente un'anteprima digitale dell'immagine sullo schermo LCD posteriore integrato o sul mirino elettronico (EVF). [45]

Queste sono più semplici e compatte delle reflex digitali perché non dispongono di un sistema reflex. Le MILC, o fotocamere mirrorless in breve, sono dotate di sensori di varie dimensioni a seconda della marca e del produttore, tra cui: un piccolo sensore da 1/2,3 pollici, comunemente usato nelle fotocamere bridge come la Pentax Q originale (versioni Pentax Q più recenti hanno un sensore da 1/1,7 pollici leggermente più grande) un sensore da 1 pollice un sensore Micro Quattro Terzi un sensore APS-C che si trova nella serie Sony NEX e α "DSLR-like", Fujifilm serie X, Pentax K-01 e Canon EOS M e alcuni, come la Sony α7, utilizzano un sensore full frame (35 mm), con Hasselblad X1D che è la prima fotocamera mirrorless di medio formato. Alcuni MILC hanno un mirino elettronico separato per compensare la mancanza di uno ottico. In altre fotocamere, il display posteriore viene utilizzato come mirino principale allo stesso modo delle fotocamere compatte. Uno svantaggio delle fotocamere mirrorless rispetto a una tipica DSLR è la durata della batteria dovuta al consumo energetico del mirino elettronico, ma questo può essere mitigato da un'impostazione all'interno della fotocamera in alcuni modelli. [46]

Olympus e Panasonic hanno rilasciato molte fotocamere Micro Quattro Terzi con obiettivi intercambiabili completamente compatibili tra loro senza alcun adattatore, mentre altre hanno supporti proprietari. Nel 2014, Kodak ha rilasciato la sua prima fotocamera di sistema Micro Four Third. [47]

A partire da marzo 2014 [aggiornamento] , le fotocamere mirrorless stanno diventando rapidamente attraenti sia per i dilettanti che per i professionisti grazie alla loro semplicità, compatibilità con alcuni obiettivi DSLR e caratteristiche che corrispondono alla maggior parte delle DSLR oggi. [48]

Telecamere modulari Modifica

Sebbene la maggior parte delle fotocamere digitali con obiettivi intercambiabili sia dotata di un innesto dell'obiettivo di qualche tipo, esistono anche numerose fotocamere modulari, in cui l'otturatore e il sensore sono incorporati nel modulo dell'obiettivo.

La prima fotocamera modulare di questo tipo è stata la Minolta Dimâge V nel 1996, seguita dalla Minolta Dimâge EX 1500 nel 1998 e dalla Minolta MetaFlash 3D 1500 nel 1999. Nel 2009, Ricoh ha rilasciato la fotocamera modulare Ricoh GXR.

Al CES 2013, Sakar International ha annunciato la Polaroid iM1836, una fotocamera da 18 MP con sensore da 1" con obiettivo sensore intercambiabile. Un adattatore per obiettivi Micro QuattroTerzi, Nikon e K-mount è stato pianificato per la spedizione con la fotocamera. [49]

Ci sono anche una serie di moduli fotocamera aggiuntivi per smartphone, si chiamano stile lente fotocamere (fotocamera con obiettivo o obiettivo intelligente). Contengono tutti i componenti essenziali di una fotocamera digitale all'interno di un modulo a forma di obiettivo DSLR, da cui il nome, ma mancano di qualsiasi tipo di mirino e della maggior parte dei controlli di una normale fotocamera. Invece, sono collegati in modalità wireless e/o montati su uno smartphone per essere utilizzati come uscita del display e azionare i vari controlli della fotocamera.

Le fotocamere con obiettivo includono:

    Fotocamere "Smart Lens" o "SmartShot" della serie QX, annunciate e rilasciate a metà 2013 con la Cyber-shot DSC-QX10. Nel gennaio 2014 è stato annunciato un aggiornamento del firmware per DSC-QX10 e DSC-QX100. [50] Nel settembre 2014, Sony ha annunciato la Cyber-shot DSC-QX30 e l'Alpha ILCE-QX1, [51][52] il primo un ultrazoom con zoom ottico 30x integrato, il secondo optando per un Sony E-mount intercambiabile invece di un obiettivo integrato.
  • Serie di fotocamere con obiettivo intelligente Kodak PixPro, annunciate nel 2014. Questi includono: lo zoom ottico 5X SL5, lo zoom ottico 10X SL10 e lo zoom ottico 25X SL25, tutti dotati di sensori da 16 MP e registrazione video 1080p, ad eccezione della SL5 che si limita a 720p. [53] La fotocamera con obiettivo intelligente IU680 del marchio di proprietà di Sakar, Vivitar, annunciata nel 2014. [54]
  • La fotocamera con obiettivo Olympus Air A01, annunciata nel 2014 e rilasciata nel 2015, la fotocamera con obiettivo è una piattaforma aperta con un sistema operativo Android e può essere staccata in 2 parti (modulo sensore e obiettivo), proprio come la Sony QX1 e tutti i Micro Quattro Terzi compatibili gli obiettivi possono quindi essere collegati all'innesto dell'obiettivo integrato del modulo sensore della fotocamera. [55][56]

Fotocamere reflex digitali a obiettivo singolo (DSLR) Modifica

Le fotocamere reflex digitali a obiettivo singolo (DSLR) utilizzano uno specchio reflex che può riflettere la luce e può anche ruotare da una posizione all'altra e tornare alla posizione iniziale. Per impostazione predefinita, lo specchio reflex è impostato a 45 gradi rispetto all'orizzontale, blocca la luce al sensore e riflette la luce dall'obiettivo al penta-specchio/prisma della fotocamera DSLR e dopo alcuni riflessi arriva al mirino. Lo specchio reflex viene estratto orizzontalmente sotto il pentaspecchio/prisma quando il pulsante di scatto è completamente premuto, così il mirino sarà scuro e la luce/l'immagine può colpire direttamente il sensore al momento dell'esposizione (impostazione della velocità).

La messa a fuoco automatica viene eseguita utilizzando i sensori nella scatola dello specchio. Alcune reflex dispongono di una modalità "live view" che consente di inquadrare utilizzando lo schermo con l'immagine del sensore.

Queste fotocamere hanno sensori molto più grandi rispetto agli altri tipi, tipicamente da 18 mm a 36 mm sulla diagonale (fattore di ritaglio 2, 1,6 o 1). Il sensore più grande consente di ricevere più luce da ogni pixel, questo combinato con le lenti relativamente grandi offre prestazioni superiori in condizioni di scarsa illuminazione. Per lo stesso campo visivo e la stessa apertura, un sensore più grande offre una messa a fuoco meno profonda. Usano lenti intercambiabili per la versatilità. Di solito alcuni obiettivi sono realizzati solo per l'uso di reflex digitali, ma la tendenza recente gli obiettivi possono essere utilizzati anche in videocamera con obiettivo staccabile con o senza adattatore.

Fotocamere digitali (DSC) Modifica

La fotocamera digitale (DSC), come le fotocamere Sony DSC, è un tipo di fotocamera che non utilizza uno specchio reflex. I DSC sono come le fotocamere point-and-shoot ed è il tipo più comune di fotocamere, grazie al suo prezzo conveniente e alla sua qualità.

Fotocamere DSLT a specchio fisso Modifica

Le fotocamere con specchi fissi semitrasparenti, note anche come fotocamere DSLT, come le fotocamere Sony SLT, sono a obiettivo singolo senza specchio reflex mobile come in una DSLR convenzionale. Uno specchio semitrasparente trasmette parte della luce al sensore di immagine e riflette parte della luce lungo il percorso a un pentaprisma/pentaspecchio che poi va a un mirino ottico (OVF) come avviene con uno specchio reflex nelle fotocamere DSLR. La quantità totale di luce non viene modificata, solo una parte della luce percorre un percorso e parte dell'altro. Le conseguenze sono che le fotocamere DSLT dovrebbero riprendere mezzo stop in modo diverso dalle DSLR. Un vantaggio dell'utilizzo di una fotocamera DSLT sono i momenti ciechi che un utente DSLR sperimenta mentre lo specchio riflettente viene spostato per inviare la luce al sensore invece del mirino non esistono per le fotocamere DSLT. Poiché non c'è un momento in cui la luce non viaggia lungo entrambi i percorsi, le fotocamere DSLT ottengono il vantaggio del monitoraggio continuo della messa a fuoco automatica. Ciò è particolarmente utile per le riprese in modalità burst in condizioni di scarsa illuminazione e anche per il monitoraggio durante la ripresa di video. [ citazione necessaria ]

Telemetri digitali Modifica

Un telemetro è un dispositivo per misurare la distanza del soggetto, con l'intento di regolare di conseguenza la messa a fuoco dell'obiettivo di una fotocamera (controller ad anello aperto). Il telemetro e il meccanismo di messa a fuoco dell'obiettivo possono essere accoppiati o meno. Nel linguaggio comune, il termine "fotocamera a telemetro" è interpretato in modo molto restrittivo per indicare fotocamere con messa a fuoco manuale con un telemetro ottico a lettura ottica basato sulla parallasse. La maggior parte delle fotocamere digitali ottiene la messa a fuoco attraverso l'analisi dell'immagine catturata dall'obiettivo e la stima della distanza, se fornita, è solo un sottoprodotto del processo di messa a fuoco (controllore ad anello chiuso). [57]

Sistemi di telecamere a scansione lineare Modifica

Una fotocamera a scansione lineare ha tradizionalmente una singola fila di sensori pixel, invece di una matrice di essi. Le linee vengono continuamente alimentate a un computer che le unisce tra loro e ne crea un'immagine. [58] [59] Questo è più comunemente fatto collegando l'uscita della telecamera a un frame grabber che risiede in uno slot PCI di un computer industriale. Il frame grabber agisce per bufferizzare l'immagine e talvolta fornisce un'elaborazione prima di consegnarla al software del computer per l'elaborazione. I processi industriali spesso richiedono misurazioni dell'altezza e della larghezza eseguite da sistemi di scansione lineare digitale. [60]

È possibile utilizzare più file di sensori per creare immagini a colori o per aumentare la sensibilità mediante TDI (ritardo e integrazione).

Molte applicazioni industriali richiedono un ampio campo visivo. Tradizionalmente mantenere una luce coerente su grandi aree 2D è piuttosto difficile. Con una telecamera a scansione lineare, tutto ciò che è necessario è fornire un'illuminazione uniforme lungo la "linea" attualmente visualizzata dalla telecamera. Questo rende le immagini nitide di oggetti che passano la fotocamera ad alta velocità.

Tali fotocamere sono anche comunemente utilizzate per realizzare fotofinish, per determinare il vincitore quando più concorrenti tagliano il traguardo quasi contemporaneamente. Possono essere utilizzati anche come strumenti industriali per l'analisi di processi veloci.

Le fotocamere a scansione lineare sono anche ampiamente utilizzate nell'imaging dai satelliti (vedi scanner a scopa). In questo caso la fila di sensori è perpendicolare alla direzione di movimento del satellite. Le fotocamere a scansione lineare sono ampiamente utilizzate negli scanner. In questo caso, la telecamera si sposta orizzontalmente.

Fotocamera stand alone Modifica

Le telecamere stand alone possono essere utilizzate come telecamera remota. Un tipo pesa 2,31 once (65,5 g), con una forma a periscopio, grado di resistenza all'acqua e alla polvere IPx7 e può essere aumentato a IPx8 utilizzando un cappuccio. Non hanno mirino o LCD. L'obiettivo è un grandangolo da 146 gradi o un obiettivo standard, con messa a fuoco fissa. Può avere un microfono e un altoparlante e può scattare foto e registrare video. Come videocamera remota, è necessaria un'app per telefono che utilizzi Android o iOS per inviare video in diretta, modificare le impostazioni, scattare foto o utilizzare il time lapse. [61]

Fotocamere Superzoom Modifica

Le fotocamere digitali superzoom sono fotocamere digitali che possono ingrandire molto lontano. Queste fotocamere superzoom sono adatte a chi soffre di miopia.

La serie HX è una serie che contiene le fotocamere superzoom di Sony come HX20V, HX90V e la nuovissima HX99. HX sta per HyperXoom.

Fotocamera a campo luminoso Modifica

Questo tipo di fotocamera digitale acquisisce informazioni sul campo luminoso emanato da una scena, ovvero l'intensità della luce in una scena e anche la direzione in cui i raggi di luce viaggiano nello spazio. Ciò contrasta con una fotocamera digitale convenzionale, che registra solo l'intensità della luce.

Molti dispositivi hanno una fotocamera digitale integrata, inclusi, ad esempio, smartphone, telefoni cellulari, PDA e computer portatili. Le fotocamere integrate generalmente memorizzano le immagini nel formato file JPEG.

I telefoni cellulari che incorporano fotocamere digitali sono stati introdotti in Giappone nel 2001 da J-Phone. Nel 2003 i cellulari con fotocamera hanno venduto più delle fotocamere digitali autonome e nel 2006 hanno venduto più delle fotocamere digitali a pellicola e autonome. In cinque anni sono stati venduti cinque miliardi di telefoni con fotocamera e nel 2007 più della metà della base installata di tutti i telefoni cellulari erano telefoni con fotocamera. Le vendite di fotocamere separate hanno raggiunto il picco nel 2008. [62]

Le vendite delle fotocamere digitali tradizionali sono diminuite a causa del crescente utilizzo degli smartphone per la fotografia occasionale, che consentono anche una più facile manipolazione e condivisione delle foto attraverso l'uso di app e servizi basati sul web. Le "fotocamere bridge", al contrario, hanno tenuto duro con funzionalità che mancano alla maggior parte delle fotocamere per smartphone, come lo zoom ottico e altre funzionalità avanzate. [63] [64] Anche le reflex digitali hanno perso terreno rispetto alle fotocamere con obiettivo intercambiabile Mirrorless (MILC) che offrono la stessa dimensione del sensore in una fotocamera più piccola. Alcuni costosi utilizzano un sensore full frame come fotocamere professionali DSLR.

In risposta alla praticità e alla flessibilità delle fotocamere per smartphone, alcuni produttori hanno prodotto fotocamere digitali "intelligenti" che combinano le caratteristiche delle fotocamere tradizionali con quelle di uno smartphone. Nel 2012, Nikon e Samsung hanno rilasciato la Coolpix S800c e la Galaxy Camera, le prime due fotocamere digitali ad eseguire il sistema operativo Android. Poiché questa piattaforma software è utilizzata in molti smartphone, possono integrarsi con servizi (come allegati di posta elettronica, social network e siti di condivisione di foto) come fanno gli smartphone e utilizzare anche altri software compatibili con Android. [63]

In un'inversione, alcuni produttori di telefoni hanno introdotto smartphone con fotocamere progettate per assomigliare alle fotocamere digitali tradizionali. Nokia ha rilasciato l'808 PureView e il Lumia 1020 nel 2012 e nel 2013, i due dispositivi eseguono rispettivamente i sistemi operativi Symbian e Windows Phone ed entrambi includono una fotocamera da 41 megapixel (insieme a un attacco per l'impugnatura della fotocamera per quest'ultimo). [65] Allo stesso modo, Samsung ha introdotto il Galaxy S4 Zoom, con una fotocamera da 16 megapixel e uno zoom ottico 10x, che combina i tratti del Galaxy S4 Mini con la Galaxy Camera. [66] Panasonic Lumix DMC-CM1 è uno smartphone Android KitKat 4.4 con 20MP, sensore da 1", il sensore più grande per uno smartphone di sempre, con obiettivo fisso Leica equivalente di 28 mm a F2.8, può acquisire immagini RAW e video 4K, ha uno spessore di 21 mm. [67] Inoltre, nel 2018 Huawei P20 Pro è un Android Oreo 8.1 ha lenti Leica triple nella parte posteriore dello smartphone con sensore RGB 1/1.7" da 40MP come primo obiettivo, sensore monocromatico da 20MP 1/2.7" come secondo obiettivo e sensore RGB da 8 MP 1/4" con zoom ottico 3x come terzo obiettivo. [68] La combinazione del primo obiettivo e del secondo obiettivo produrrà un'immagine bokeh con una gamma dinamica elevata più ampia, mentre la combinazione del primo obiettivo mega pixel e dello zoom ottico produrrà uno zoom digitale massimo 5x senza perdita di qualità riducendo la dimensione dell'immagine a 8 MP. [69]

Le fotocamere a campo luminoso sono state introdotte nel 2013 con un prodotto consumer e diversi prodotti professionali.

Dopo un forte calo delle vendite nel 2012, le vendite di fotocamere digitali consumer sono diminuite nuovamente nel 2013 del 36%. Nel 2011, le fotocamere digitali compatte hanno venduto 10 milioni al mese. Nel 2013, le vendite sono scese a circa 4 milioni al mese. Anche le vendite di DSLR e MILC sono diminuite nel 2013 del 10-15% dopo quasi dieci anni di crescita a due cifre. [70] Le vendite unitarie mondiali di fotocamere digitali sono in continuo calo da 148 milioni nel 2011 a 58 milioni nel 2015 e tendono a diminuire maggiormente negli anni successivi. [71]

Le vendite di fotocamere a pellicola hanno raggiunto il loro picco a circa 37 milioni di unità nel 1997, mentre le vendite di fotocamere digitali sono iniziate nel 1989. Nel 2008, il mercato delle fotocamere a pellicola era morto e le vendite di fotocamere digitali hanno raggiunto il loro picco a 121 milioni di unità nel 2010. Nel 2002, i telefoni cellulari con fotocamera integrata era stato introdotto e nel 2003 il cellulare con fotocamera integrata aveva venduto 80 milioni di unità all'anno. Nel 2011, i telefoni cellulari con fotocamera integrata vendevano centinaia di milioni all'anno, causando un calo delle fotocamere digitali. Nel 2015, le vendite di fotocamere digitali sono state di 35 milioni di unità o solo meno di un terzo del numero di vendite di fotocamere digitali al loro apice e anche leggermente inferiore al numero di vendite di fotocamere a pellicola al loro apice. [ citazione necessaria ]

Trasferimento di foto Modifica

Molte fotocamere digitali possono connettersi direttamente a un computer per trasferire i dati: -

  • Le prime fotocamere utilizzavano la porta PCserial. L'USB è ora il metodo più utilizzato (la maggior parte delle fotocamere è visualizzabile come memoria di massa USB), sebbene alcune abbiano una porta FireWire. Alcune fotocamere utilizzano la modalità USB PTP per la connessione anziché USB MSC, alcune offrono entrambe le modalità.
  • Altre fotocamere utilizzano connessioni wireless, tramite Bluetooth o IEEE 802.11Wi-Fi, come Kodak EasyShare One. Wi-Fi integrato Le schede di memoria (SDHC, SDXC) possono trasmettere immagini, video e altri file archiviati a computer o smartphone. I sistemi operativi mobili come Android consentono il caricamento e il backup automatici o la condivisione di immagini tramite Wi-Fi su condivisione di foto e servizi cloud.
  • Le fotocamere con Wi-Fi integrato o adattatori Wi-Fi specifici consentono principalmente il controllo della fotocamera, in particolare il rilascio dell'otturatore, il controllo dell'esposizione e altro (tethering) da app per computer o smartphone oltre al trasferimento di dati multimediali.
  • Anche i cellulari con fotocamera e alcune fotocamere digitali autonome di fascia alta utilizzano le reti cellulari per connettersi e condividere le immagini. Lo standard più diffuso sulle reti cellulari è l'MMS Multimedia Messaging Service, comunemente chiamato "messaggi con immagini". Il secondo metodo con gli smartphone è inviare un'immagine come allegato di posta elettronica. Molti vecchi cellulari con fotocamera, tuttavia, non supportano la posta elettronica.

Un'alternativa comune è l'uso di un lettore di schede che può essere in grado di leggere diversi tipi di supporti di memorizzazione, nonché il trasferimento ad alta velocità dei dati al computer. L'uso di un lettore di schede evita inoltre di scaricare la batteria della fotocamera durante il processo di download. Un lettore di schede esterno consente un comodo accesso diretto alle immagini su una raccolta di supporti di memorizzazione. Ma se è in uso solo una scheda di memoria, spostarla avanti e indietro tra la fotocamera e il lettore può essere scomodo. Molti computer hanno un lettore di schede integrato, almeno per le schede SD.

Stampa di foto Modifica

Molte fotocamere moderne supportano lo standard PictBridge, che consente loro di inviare dati direttamente a una stampante per computer compatibile con PictBridge senza la necessità di un computer.

La connettività wireless può anche fornire la stampa di foto senza una connessione via cavo.

Un fotocamera a stampa istantanea, è una fotocamera digitale con stampante incorporata. [72] Ciò conferisce una funzionalità simile a quella di una fotocamera istantanea che utilizza la pellicola istantanea per generare rapidamente una fotografia fisica. Tali fotocamere non digitali furono rese popolari da Polaroid con la SX-70 nel 1972. [73]

Visualizzazione delle foto Modifica

Molte fotocamere digitali includono una porta di uscita video. Solitamente sVideo, invia un segnale video a definizione standard a un televisore, consentendo all'utente di mostrare un'immagine alla volta. I pulsanti oi menu della fotocamera consentono all'utente di selezionare la foto, passare da una all'altra o inviare automaticamente uno "slide show" alla TV.

HDMI è stato adottato da molti produttori di fotocamere digitali di fascia alta, per mostrare le foto nella loro qualità ad alta risoluzione su un HDTV.

Nel gennaio 2008, Silicon Image ha annunciato una nuova tecnologia per l'invio di video da dispositivi mobili a un televisore in forma digitale. MHL invia immagini come flusso video, risoluzione fino a 1080p ed è compatibile con HDMI. [74]

Alcuni registratori DVD e televisori possono leggere le schede di memoria utilizzate nelle fotocamere, in alternativa diversi tipi di lettori di schede flash hanno capacità di uscita TV.

Le telecamere possono essere dotate di una quantità variabile di sigillatura ambientale per fornire protezione contro spruzzi d'acqua, umidità (umidità e nebbia), polvere e sabbia o impermeabilità completa fino a una certa profondità e per una certa durata. Quest'ultimo è uno degli approcci per consentire la fotografia subacquea, l'altro approccio è l'uso di custodie impermeabili. Molte fotocamere digitali impermeabili sono anche antiurto e resistenti alle basse temperature.

Alcune fotocamere impermeabili possono essere dotate di un alloggiamento impermeabile per aumentare la gamma di profondità operativa. La gamma di fotocamere compatte Olympus 'Tough' ne è un esempio.

Molte fotocamere digitali hanno modalità preimpostate per diverse applicazioni. Entro i limiti della corretta esposizione, è possibile modificare vari parametri, tra cui esposizione, apertura, messa a fuoco, misurazione della luce, bilanciamento del bianco e sensibilità equivalente. Ad esempio, un ritratto potrebbe utilizzare un'apertura più ampia per rendere lo sfondo sfocato e cercare e mettere a fuoco un volto umano piuttosto che altri contenuti dell'immagine.

Poche fotocamere sono dotate di una funzione di registrazione delle note vocali (solo audio). [75]

Modalità scena Modifica

I fornitori implementano una varietà di modalità scena nei firmware delle fotocamere per vari scopi, come una "modalità orizzontale" che impedisce la messa a fuoco su vetri piovosi e/o macchiati come un parabrezza e una "modalità sport" che riduce la sfocatura del movimento dei soggetti in movimento riducendo il tempo di esposizione con l'aiuto di una maggiore sensibilità alla luce. I firmware possono essere dotati della possibilità di selezionare automaticamente una modalità scena adatta tramite l'intelligenza artificiale. [76] [77]