veganism.social is one of the many independent Mastodon servers you can use to participate in the fediverse.
Veganism Social is a welcoming space on the internet for vegans to connect and engage with the broader decentralized social media community.

Administered by:

Server stats:

296
active users

#neuralnetwork

3 posts3 participants1 post today

MATLAB Implementation of Neural Network Based MPPT for Solar PV System
Uses neural networks for optimal power point tracking in solar PV systems.
For Indian Customer: zurl.co/AduTF
For International Customers other than India zurl.co/JaqAR
zurl.co/LxIoI
#MATLAB #NeuralNetwork #MPPT #SolarPV #RenewableEnergy #CleanEnergy #EnergyEfficiency #TechInnovation #SmartGrid #SolarPower #EnergyOptimization #ArtificialIntelligence #MachineLearning #ElectricGrid #Engineering

#лирика #юмор

Презирая законы смерти, отрицая науку горя, обожает послушать Верди тайный оборотень Григорий. Носит дедовские подтяжки, перманентно грустит о детстве. Пьет вискарь из армейской фляжки, впрочем, редко и без последствий, впрочем, как-то ему влетело от заезжего нувориша.

Ерунда. Человечьим телом остаётся доволен Гриша. Только каждой весной на небо выползает луна, сверкая. Уповать на луну нелепо, но ты знаешь, она какая. Тихо катится над поселком неприкаянных душ спасатель. Поневоле завоешь волком.

Гриша, к вящей его досаде, бесконечной его обиде, не достойной четверостишья, покидает в ночи обитель. Обречён становиться мышью. Грызть морковку, пищать в кунжуте, развлекаться в полях совхоза. Смерть боится мышей до жути, до истерики, до психоза. Мышь опаснее приворота, чернокнижника или нага.
Мышь Григорий мужского рода. Только пишется с мягким знаком. Лысый, с пузиком, в телогрейке, неестественного формата.

Плотник Вася — магистр рейки — должен был умереть. Куда там. Для костлявой вся жизнь рутина, у начальства не забалуешь. Но Григорий бежал, скотина, зубоскаля напропалую, и налево бежал, и прямо, и по ящикам, где консервы. Смерть — внимание — тоже дама, у нее, между прочим, нервы.
Между прочим, почётный житель, даже лично знакома с Данте:
— сами, дурни, косой машите. Расплодили мышей-мутантов.

Изучая проблемы страха и достоинства аллегорий, обожает послушать Баха тайный оборотень Григорий, гордый титулом мракоборца. Тени шастают между ёлок. Гриша снова в углу скребётся. Смерть боится идти в посёлок.

Наталья Захарцева

КДПВ #generated by #DALLE3 #NeuralNetwork

How to Securely Implement #Cryptography in Deep Neural Networks

eprint.iacr.org/2025/288

IACR Cryptology ePrint Archive · How to Securely Implement Cryptography in Deep Neural NetworksThe wide adoption of deep neural networks (DNNs) raises the question of how can we equip them with a desired cryptographic functionality (e.g, to decrypt an encrypted input, to verify that this input is authorized, or to hide a secure watermark in the output). The problem is that cryptographic primitives are typically designed to run on digital computers that use Boolean gates to map sequences of bits to sequences of bits, whereas DNNs are a special type of analog computer that uses linear mappings and ReLUs to map vectors of real numbers to vectors of real numbers. This discrepancy between the discrete and continuous computational models raises the question of what is the best way to implement standard cryptographic primitives as DNNs, and whether DNN implementations of secure cryptosystems remain secure in the new setting, in which an attacker can ask the DNN to process a message whose "bits" are arbitrary real numbers. In this paper we lay the foundations of this new theory, defining the meaning of correctness and security for implementations of cryptographic primitives as ReLU-based DNNs. We then show that the natural implementations of block ciphers as DNNs can be broken in linear time by using such nonstandard inputs. We tested our attack in the case of full round AES-128, and had $100\%$ success rate in finding $1000$ randomly chosen keys. Finally, we develop a new method for implementing any desired cryptographic functionality as a standard ReLU-based DNN in a provably secure and correct way. Our protective technique has very low overhead (a constant number of additional layers and a linear number of additional neurons), and is completely practical.