O melhor pedaço da Maçã.
MIT Technology Review
Independent Record Pressing

Tamanho importa — e quanto menor, melhor! A ciência e a tecnologia por trás dos 3 nanômetros

Autor(a) convidado(a)

Marcos Daniel Vozer Felisberto

Cientista de materiais, especialista em nanotecnologia com foco em grafeno. Apaixonado pela Maçã desde 2006, quando comprou um iBook G3 Bondi Blue. Usa diariamente um iMac Intel 2010, mas gosta mesmo é da sua coleção de Macs PowerPC.

Algumas semanas atrás, a Apple anunciou a família M3 do seu Apple Silicon, em um horário para lá de estranho, nas vésperas do Halloween. E, lamentavelmente, nenhum dos apresentadores veio fantasiado para o evento — uma enorme mancada do pessoal de marketing da Apple. Um Tim Cook com capa e dentadura de vampiro era o mínimo esperado para um evento como esse! Bem, ficou para a próxima oportunidade…

Publicidade

Dentre os lançamentos, nada de muito especial. iMacs e MacBooks equipados com o novo microchip M3, uma belíssima nova1O Blackbook de 2006 mandou lembranças! cor preta para os MacBooks Pro. E mais uma vez, vários daqueles gráficos sem sentido de comparação de performance entre o chip M3 e os demais do mercado, nos quais não se explica direito o que foi medido nem como foi medido. É algo que pode entusiasmar os fãs mais apaixonados, mas que tecnicamente não significa nada e não traz informação alguma.

Sem dúvida, o maior acontecimento da noite, a grande novidade, foi a chegada da tecnologia de 3 nanômetros na fabricação dos chips da família M3. Esse, sim, é um assunto que merece uma discussão um pouco mais profunda e detalhada.

O meu é menor que o seu — e isso é ótimo!

Infelizmente, preciso começar a conversa trazendo más notícias: não há nada “fisicamente” fabricado com dimensão de 3 nanômetros no M3. Assim como não há nada de 5nm no M1 Pro do MacBook Pro em que estou escrevendo agora, ou de 32nm no Intel Core i3 do meu iMac 2010 de casa.

Publicidade

Essa nomenclatura é apenas uma estratégia de marketing adotada no Roadmap Internacional para Dispositivos e Sistemas (IRDS), espécie de consórcio internacional que “prevê” o futuro das técnicas de micro (nano?) fabricação.

Até meados dos anos 1980-90, a nomenclatura dos microchips mantinha relação direta com o tamanho físico dos transistores dentro do processador. A partir dos anos 1990, com o avanço nas técnicas de fabricação e o aumento na complexidade dos chips, essa relação deixou de fazer sentido. Os fabricantes começaram a usar esses números apenas para mostrar o quanto seu processador atual era “melhor” que o da geração anterior.

Assim, cria-se a ilusão de que um microchip de 3nm é “duas vezes melhor” que um microchip de 6nm. Reparem como é algo subjetivo. O que é “duas vezes melhor”? É algo que tecnicamente não significa muita coisa, mas que pode ter um enorme apelo em termos de marketing. É algo do tipo “o meu é menor que o seu”, e do ponto de vista de computação isso é excelente — já que passa uma ideia de maior densificação, de grande quantidade de transistores, de potência e desempenho.

Publicidade

Recentemente, os fabricantes têm abandonado essa nomenclatura baseada em nanômetros. A própria TSMC se refere a seus microchips como TSMC N3 e não TSMC 3nm. A Intel fala simplesmente em Intel 3. Na prática, as dimensões dos transistores nas últimas gerações de microchips são da ordem de 10x o número anunciado. Na família M3, estamos falando de componentes de 30-50 nanômetros.

Eu estou simplificando bastante aqui, falando em “componentes”. Não faz sentido, em um texto como esse, entrar em detalhes como tamanho de gate, metal pitch ou gate pitch. Se você é um especialista em técnicas de microfabricação, entenda que este é um texto para quem não é especialista na área!

Em resumo, mesmo sabendo que o termo “3nm” é mais uma jogada de marketing que qualquer outra coisa, você quer se “gabar” dos 3nm no seu iPhone 15 Pro ou no seu novo Mac, certo? Você já deve ter repetido várias vezes, com cara de espanto, a afirmação de que “a Apple comprou toda a produção de microchips de 3nm da TSMC”! Mas fala para mim, diz a verdade: você sabe o que são 3nm? Você tem ideia do que é 1 nanômetro? O que significa esse prefixo nano? Sabe porque o processo de produção de 3nm é tão importante e relevante para o futuro da indústria de semicondutores? Não? Então vem comigo!

Nanotecnologia

Originalmente, nano é uma palavra do grego antigo que significa anão. No Sistema Internacional de Unidades, é adotado como prefixo que significa a bilionésima parte de uma unidade. 1 nanômetro (1nm) é a distância de 1 metro dividido por 1 bilhão, ou 0,000000001m (ou ainda 10-9m, pra quem prefere notação científica). Um fio de cabelo tem, em media, diâmetro de 100 micrômetros, 0,0001m, ou ainda 1 metro dividido por 10.000. 1 nanômetro é algo 100.000 vezes menor que um fio de cabelo! Ficou confuso? É que é difícil termos total consciência desses tamanhos nessa escala.

Publicidade

Em nosso dia a dia, estamos acostumados com distâncias e tamanhos da ordem de quilômetros, metros, centímetros e milímetros. São tamanhos que o nosso cérebro consegue associar a objetos e a experiências diárias. Sabemos que 200 metros é uma distância que pode ser facilmente percorrida a pé, mas que para se deslocar 200km, precisamos pelo menos de um carro. Que 1 metro pode ser suficiente para uma mesa de escritório, mas pouco para uma mesa de jantar.

Quando nos afastamos dessas dimensões diárias ou padrões, com as quais nosso cérebro está acostumado, precisamos de um pouco de abstração e novas referências para ter ideia de onde estamos localizados na escala das coisas. Se você quiser brincar um pouco com a ideia de escala, para entender o quão difícil é encontrar novas referências de tamanhos longe do que estamos acostumados no dia a dia, recomendo o site Escala do Universo.

Voltando aos nanômetros, as nanociências e a nanotecnologia são os ramos da ciência e da engenharia que trabalham com a matéria nessa ordem de grandeza. Em nanotecnologia, estamos trabalhando apenas um passo acima da escala atômica! Estamos fabricando, medindo, caracterizando coisas do tamanho de moléculas, às vezes alguns poucos átomos!

Isso nos dá uma dimensão do espetacular trabalho de engenharia que há por trás do desenho e da fabricação de microchips e componentes eletrônicos. E não estou falando apenas do M3. Há uns bons anos, a fabricação de processadores entrou nos domínios da nanotecnologia, produzindo transistores cada vez menores e mais densificados no interior de cada microchip. Desde o início dos anos 2000, estamos usando microchips com dimensões menores que um milésimo de um fio de cabelo.

À medida em que o tamanho físico dos transistores diminui, aumenta-se a quantidade de transistores dentro de cada microchip. A densidade de transistores dentro de cada microchip hoje está na casa de impressionantes 200 milhões de transistores por milímetro quadrado!

Uma conta simples mostra que, em um microchip de aproximadamente 11mm de tamanho lateral, cabem 25 bilhões de transistores que a Apple alega ter no M3.

Números como esses nos dão uma ideia do grau de complexidade envolvido na produção desses dispositivos e de quão avançada é a tecnologia de semicondutores. Além disso, nos fazem pensar como é possível fabricar essas coisas? Como podemos manipular a matéria a nível de algumas centenas de átomos2Um átomo de silício tem aproximadamente 0,4nm de diâmetro. Quando falamos de um transistor na casa de 50nm de tamanho, estamos falando da distância de aproximadamente 125 átomos de silício alinhados!? Essa “mágica” acontece através da fotolitografia.

Escrevendo com luz

A fotolitografia é uma técnica que usa luz para “escrever” sobre uma superfície, criando padrões e desenhos específicos. Em um processo de fotolitografia, é utilizado algum material que seja fotossensível e que sofra alguma transformação quando exposto à luz. O material fotossensível protege a superfície da exposição à luz e, quando removido com o uso do solvente adequado, expõe a superfície original.

A fotolitografia foi criada por Nicéphore Niépce, um dos pioneiros na fotografia. Como utilizava a luz solar, a técnica ficou conhecida como heliografia. O material fotossensível usado por Nicéphore foi o “betume da Judéia”, um tipo natural de asfalto. A fotografia mais antiga ainda existente do mundo é a “vista da janela em Le Gras”, produzida por Nicéphore entre 1826 e 1827, na França.

Nicéphore usou uma câmera escura (dessas que a gente faz na escola para demonstrar a ideia de como funciona a fotografia) para projetar a paisagem da sua janela em uma placa de prata de aproximadamente 16x20cm, recoberta com betume da Judéia. Quando exposto à luz solar, o betume da Judéia endurece, enquanto as partes que ficaram na sombra se mantêm solúveis e laváveis. Após a exposição, a placa é lavada e a parte ainda solúvel do betume é removida, deixando registrado o padrão claro/escuro que forma a imagem.

No processo moderno de fotolitografia, uma resina polimérica é utilizada como material fotossensível. A resina é sensibilizada rapidamente, em frações de segundo — ao contrário do processo original de Nicéphore, que necessitava dezenas de horas de exposição ao sol. É um processo que envolve várias etapas, nas quais diferentes materiais são depositados sobre um substrato.

No processo específico de componentes eletrônicos, filmes finos de metais e óxidos metálicos são depositados, camada por camada, com intrincados e diminutos padrões sobre a superfície de um substrato de silício. Os transistores que compõem um processador são formados diretamente sobre a superfície do silício, através de filmes finos metálicos de espessura nanométrica, depositados por fotolitografia. 

De uma maneira bem simplificada, podemos ilustrar um processo de fotolitografia da seguinte maneira: imagine que desejemos imprimir sobre um substrato alguma figura usando um determinado metal. Uma fina camada da resina fotossensível é depositada sobre o substrato. Logo, uma máscara com o recorte da figura ou do padrão que queremos imprimir é posicionada sobre a superfície e iluminada com a luz usada no processo.

Na parte vazada da máscara, a luz remove a resina fotossensível (expondo o substrato), enquanto nas partes sob a “sombra” da máscara a resina segue protegendo a superfície. O próximo passo é depositar sobre toda a área uma fina camada do metal desejado. Por fim, uma limpeza química conhecida como etching remove a resina da superfície (junto ao metal depositado sobre ela), deixando impressa a figura criada com a máscara.

É realizando esse processo sucessivas vezes, com máscaras de padrões nanométricos, diferentes metais e óxidos, que os complexos desenhos que formam os transistores de um processador e todas as suas conexões são construídos.

E é a luz utilizada no processo de fotolitografia que permite a miniaturização dos componentes, o desenho de figuras cada vez menores na superfície do substrato. Para escrever um cartaz em cartolina, como esses com preços em supermercados, você usa um lápis de ponta grossa (o popular “pincel atômico”); se vai assinar um documento em uma folha A4, muito provavelmente usará uma caneta com a ponta muito mais fina.

Quanto mais fina a ferramenta de escrita, mais finos e precisos são os traços. No caso da fabricação de processadores, o que permitiu a miniaturização no processo foi o uso de luz com comprimentos de onda cada vez menores. A diminuição no comprimento de onda da luz nos permite “escrever” coisas cada vez menores na superfície.

O que chamamos de luz é radiação eletromagnética, uma maneira de transportar energia pelo espaço, através de campos elétricos e magnéticos. Podemos classificar a luz em função do seu comprimento de onda, no que conhecemos como espectro eletromagnético.

A única diferença entre a radiação de microondas que aquece os alimentos no forno da sua cozinha e os raios-X que podem causar câncer é a frequência ou o comprimento de onda.

Essa parte colorida no espectro é o que chamamos de “luz visível”. De toda a radiação eletromagnética que chega aos nossos olhos, somente a que está dentro desse pequeno intervalo de comprimentos de onda, aproximadamente entre 400nm e 700nm, é a que consegue sensibilizar células específicas localizadas nos nossos olhos e criar o que chamamos de visão. Toda a nossa visão, tudo o que conseguimos enxergar, depende da luz dessa pequena faixa do espectro eletromagnético. O restante do espectro eletromagnético interage de diferentes maneiras com nosso corpo e o meio em geral.

Além disso, tem usos e aplicações diferentes. Todas as nossas comunicações (rádio, TV, satélites e celulares, por exemplo) estão dentro da região do rádio e microondas. Nossas redes Wi-Fi estão na frequência de GHz, microondas. Em medicina, as técnicas de diagnósticos por imagem utilizam massivamente radiação na região dos raios-X. Em litografia, começamos usando a luz solar, mas a tecnologia precisou migrar para comprimentos de onda cada vez menores para atingirmos o nível de miniaturização que temos hoje.

Os primeiros processos de fotolitografia nos anos 1970, que produziam componentes da ordem de micrômetros (1 metro dividido por 1 milhão), usavam luz próxima do infravermelho, com comprimentos de onda da ordem de micrômetros. O grande salto na miniaturização e, consequentemente, no adensamento de componentes no interior dos microchips/processadores, ocorreu a partir dos anos 1990, quando saltamos do infravermelho para o outro extremo do espectro visível, com a fotolitografia de ultravioleta profundo (deep ultraviolet, ou DUP). A fotolitografia DUP utiliza luz no comprimento de onda de 193nm. Ela foi utilizada até meados de 2018, na produção de microchips com tecnologia de 7nm.

O fim da Lei de Moore — ou não

Em 1965, Gordon Moore trabalhava como diretor de pesquisa e desenvolvimento na Fairchild Semiconductor, uma das empresas pioneiras a se instalar na região que viria a ser conhecida como o Vale do Silício.

Em uma entrevista à Electronics Magazine, Moore foi perguntado sobre como ele pensava que iria evoluir pelos próximos dez anos a indústria dos circuitos integrados (CI), que haviam sido inventados poucos anos antes. Moore tinha observado que, naqueles primeiros anos da indústria de semicondutores, a quantidade de componentes (diodos, transistores e capacitores) no interior dos circuitos integrados vinha dobrando a cada ano. Ele, então, previu que essa tendência continuaria por pelo menos dez anos — o que se mostrou acertado.

Em 1975, Moore revisou a sua previsão, estimando que a quantidade de componentes dobraria no interior de cada CI a cada dois anos. E ele acertou de novo, com essa relação se mantendo válida e vigente por décadas, até pelo menos 2010. Porém, o próprio Moore tinha consciência de que sua lei não poderia durar para sempre e em algum momento a miniaturização dos microchips encontraria um limite.

Em uma entrevista de 2005, ele previu que a lei teria mais 10 ou 20 anos de vigência. Vale observar que a Lei de Moore não é básica da natureza, não é uma lei da Física. É algo empírico, baseado na experiência de Moore e na constatação de como a fabricação dos circuitos integrados vinha evoluindo. Foi um “chute”, mas um chute fortemente embasado no conhecimento de Moore das técnicas de fabricação e de sua experiência de mercado.

A partir de aproximadamente 2010, o ritmo de miniaturização e adensamento de transistores no interior dos processadores começou a diminuir, avançando em um ritmo menor do que o previsto pela Lei de Moore. Se traçarmos a “linha ideal” entre os pontos do gráfico anterior, vemos que a partir de 2010 há um desvio, uma queda no ritmo de miniaturização dos microchips.

Para alguns, era o início do fim da Lei de Moore. Depois de décadas prevendo o avanço da indústria de semicondutores, a Lei de Moore parecia finalmente estar chegando ao seu limite.

Quem usou algum Mac com chip Intel de 2010 a 2020 notou uma aparente estagnação na performance. Não havia grande diferenças de performance a cada nova geração de Macs. As melhoras foram mais incrementais e tornavam mais visíveis quando comparados processadores com duas ou três gerações de diferença — ao contrário dos anos 1990, quando a diferença de performance entre um Pentium 100 e um 133, por exemplo, era palpável.

Muitos acusavam/acusam a Intel de “se acomodar”, deixar de inovar. Sejamos justos, não era essa a causa. O fato é que a tecnologia de produção de processadores, a fotolitografia de ultravioleta profundo, estava no seu limite. Para voltar a avançar significativamente e manter a Lei de Moore vigente, era preciso uma nova tecnologia. E ela se tornou viável comercialmente em 2022.

Fotolitografia do ultravioleta extremo

No meu artigo sobre vidro aqui no MacMagazine, comentei que o Gorilla Glass começou a ser desenvolvido pela Corning em 1960 e só foi ao mercado com o iPhone, em 2007. A ideia de que cientistas tem “lampejos mágicos”, com momentos “Eureka!”, em que criam coisas maravilhosas quase que instantaneamente, de uma hora para outra, é apenas uma visão romântica e fantasiosa de como a ciência e a tecnologia funcionam.

Desenvolver uma tecnologia custa tempo, esforço, dedicação e dinheiro… muito dinheiro! As pesquisas para desenvolver a tecnologia que salvaria a Lei de Moore começaram em 1990! A Lei de Moore se manteve vigente por décadas devido ao esforço no desenvolvimento de novas tecnologias que permitissem a densificação e a miniaturização cada vez maiores de transistores no interior dos microchips. Podemos pensar a Lei de Moore como uma “força” que empurrou toda a indústria dos semicondutores no sentido da miniaturização dos componentes. Mas todos sabiam que isso tinha um limite. Era uma questão de tempo.

O próximo passo para a miniaturização, depois do ultravioleta profundo (193nm), seria o ultravioleta extremo (UV-extremo, ou EUV em inglês), uma luz com comprimento de onda de apenas 13nm. Mas o ultravioleta extremo apresentava dificuldades enormes para ser utilizado, de maneira que muitos consideraram impossível a fotolitografia por UV-extremo.

Lembra mais acima, em que eu disse que a luz de diferentes comprimentos de onda interage de maneiras diferentes com nosso corpo o mundo em geral? Pois bem, o UV-extremo é absorvido pelo ar e pelo vidro. Isso significa que uma máquina de litografia que use UV-extremo não pode usar lentes de vidro para alinhar e direcionar os feixes de luz no processo de litografia, tendo então que usar espelhos. E todo o interior da máquina precisa estar em alto vácuo. Além disso, a radiação de UV-extremo não é facilmente produzida e seria preciso desenvolver uma fonte estável de radiação UV-extremo.

Para superar essas dificuldades, o governo dos Estados Unidos formou, em 1990, um consórcio de laboratórios de diferentes universidades e centros de pesquisa. O consórcio foi financiado pelo Estado americano para desenvolver a tecnologia que tornasse possível a fotolitografia por UV-extremo.

Em 2001, a ASML — uma então relativamente pequena empresa holandesa de pouco mais de 300 funcionários — adquiriu os direitos de explorar a tecnologia desenvolvida pelo consórcio americano e fabricar uma máquina comercial para fotolitografia de UV-extremo. A ASML se uniu à ZEISS e à Oxford Instruments para produzir a máquina que salvaria a Lei de Moore.

O primeiro protótipo surgiu em 2006 e levava 23 horas para produzir um wafer de silício (um disco com 30cm de diâmetro). Em 2018, quando a máquina se tornou comercial, era capaz de produzir 200 wafers por hora! Foram 17 anos de desenvolvimento e um investimento da ordem de US$9 bilhões. Cada máquina de UV-extremo produzida pela ASML tem o tamanho de um ônibus, custa em torno de US$200 milhões e precisa ser transportada desmontada em 4 Boeings 747 para ser entregue a cada cliente.

A ASML é, hoje, a única empresa do mundo a fabricar máquinas para a fotolitografia de UV-extremo. Em 2021, a empresa teve lucro de 18 bilhões de euros! Quem estiver interessado em saber mais detalhes técnicos da máquina e de todo o processo de desenvolvimento feito pela ASML, essa reportagem do MIT Technology Review é sensacional.

Os limites da Física

Se você chegou até aqui, caro leitor, você é um guerreiro! Obrigado pelo empenho e pela dedicação, espero que tenha gostado e prometo ser breve na finalização deste texto.

A fotolitografia de UV-extremo deverá manter a Lei de Moore válida por mais alguns anos. A ASML está trabalhando na próxima versão da sua máquina, o que a empresa chama de fotolitografia de UV-extremo de alta abertura numérica (high-NA EUV), que deverá permitir a fabricação de componentes por debaixo dos 10 nanômetros (agora estamos falando da dimensão física real dos componentes no interior de cada microchip) e manter a Lei de Moore relevante até, pelo menos, meados de 2030.

O que vem além disso? Ainda não sabemos! O fato é que estamos chegando próximo aos limites impostos pela Física. Nessas dimensões, de alguns poucos nanômetros, fenômenos quânticos que não observamos na escala do dia a dia começam a aparecer.

As propriedades da matéria mudam quando nos aproximamos da escala atômica. Elétrons se comportam de maneira diferente, de modo que manter o fluxo de cargas elétricas que fazem um microchip funcionar torna-se um desafio. Estamos chegando próximo dos limites impostos pela natureza e a indústria de semicondutores terá que se reinventar.

Pois bem, que venha logo a computação quântica!

Notas de rodapé

  • 1
    O Blackbook de 2006 mandou lembranças!
  • 2
    Um átomo de silício tem aproximadamente 0,4nm de diâmetro. Quando falamos de um transistor na casa de 50nm de tamanho, estamos falando da distância de aproximadamente 125 átomos de silício alinhados!

Ver comentários do post

Compartilhe este artigo
URL compartilhável
Post Ant.

A CEO decorativa

Próx. Post

App Alexa ganha nova versão mais simples e personalizável

Posts Relacionados